De gouverneur van Pennsylvania, Josh Shapiro, geeft overheidsinstanties opdracht om strengere regels te ontwikkelen voor chatbots op het gebied van kunstmatige intelligentie, die volgens hem misleidend en schadelijk kunnen zijn voor kinderen. Nieuwe beperkingen zouden Pennsylvania kunnen toevoegen aan een groeiende lijst van staten die vangrails willen opleggen, omdat steeds meer kinderen AI-chatbots zoals ChatGPT, Meta AI en Gemini gebruiken.
“Deze ruimte evolueert snel”, zei Shapiro tijdens zijn toespraak budget adres vorige week. “We moeten snel handelen om onze kinderen te beschermen.”
Terwijl een meerderheid van de Amerikaanse tieners chatbots gebruikt, geeft één op de drie aan deze te gebruiken voor sociale interactie en relaties, blijkt uit een onderzoek van vorig jaar door de non-profitorganisatie Gezond verstand-media. Deze tieners meldden dat ze chatbots gebruikten voor gespreksoefeningen, emotionele steun, rollenspellen, vriendschappen en romantische interacties. Shapiro zei dat kinderen en anderen zonder regelgeving kwetsbaar kunnen zijn voor emotionele schade.
“Sommige kinderen zijn gewoon te jong om het verschil te begrijpen tussen AI en een echt persoon”, zegt Shapiro.
Google schikte in januari meerdere rechtszaken waarin werd beweerd dat zijn Character.AI heeft bijgedragen aan geestelijke gezondheidscrises en zelfmoorden onder jongeren, waaronder een zaak die was aangespannen door een moeder uit Florida wier zoon stierf door zelfmoord nadat hij een relatie had ontwikkeld met een chatbot.
De gouverneur riep Pennsylvania op om leeftijdsverificatie, toestemming van de ouders en een verbod op chatbots die seksueel expliciete of gewelddadige inhoud met kinderen produceren, te eisen. Hij is er ook voorstander van om bedrijven te verplichten gebruikers die melding maken van zelfbeschadiging of geweld door te verwijzen naar de bevoegde autoriteiten en gebruikers er periodiek aan te herinneren dat ze niet met een echt mens te maken hebben.
Maar hoe zouden deze nieuwe eisen worden afgedwongen? En dat zijn ze?
“De duivel zit in de details”, zegt Hoda Heidari, hoogleraar ethiek en computationele technologieën aan de Carnegie Mellon Universiteit. “We kunnen het allemaal eens zijn over de doelstellingen op breder niveau, maar de vraag of sommige hiervan daadwerkelijk haalbaar zijn … moet worden uitgewerkt.”
Ondanks waarschuwingen van beveiligingsexperts over de ineffectiviteit en het risico voor de privacy ervan, heeft leeftijdsverificatie onder toezichthouders aan populariteit gewonnen als een maatregel om kinderen te beschermen tegen ongepaste websites. Heidari merkte op dat dezelfde problemen met leeftijdsverificatie zouden kunnen optreden bij chatbots.
“Deze vragen zijn zeer uitdagend, zowel vanuit een technisch perspectief van hoe je de leeftijd verifieert als vanuit een juridisch perspectief van wat te doen met de resulterende gegevens,” zei Heidari.
Ook online een identiteitsbewijs vervalsen blijft heel gemakkelijk. Veel websites die alcohol verkopen of promoten maken bijvoorbeeld gebruik van ‘leeftijdscontroles’, waarbij een gebruiker zijn geboortedatum moet invoeren om zijn leeftijd te verifiëren. Maar een gebruiker kan eenvoudigweg elke datum als verjaardag invoeren en naar de website gaan. Hetzelfde geldt voor sites met andere inhoud voor volwassenen.
Wat betreft het garanderen dat een chatbot geen gewelddadige of seksueel expliciete inhoud produceert waarbij kinderen betrokken zijn: Heidari merkte op dat AI-bedrijven al onderzoeken hoe ze de creatie van materiaal met seksueel misbruik van kinderen kunnen blokkeren. Maar de huidige vangrails kunnen worden omzeild.
“Denk eens aan alle manieren waarop je een chatbot kunt aanzetten om dezelfde soort inhoud te genereren als jij in gedachten hebt”, zegt Heidari. “Ervoor zorgen dat je nooit bepaald gedrag ziet, is eigenlijk best een uitdaging.”
Shapiro heeft wetgevers ook uitgedaagd wetgeving te ontwikkelen om kinderen en andere kwetsbare gebruikers te beschermen tegen mogelijke risico’s die gepaard gaan met het gebruik van chatbots. Een tweeledig wetsvoorstel in de Senaat zou ‘leeftijdsadequate normen’ vaststellen en waarborgen vereisen tegen inhoud die aanmoedigt tot zelfbeschadiging, zelfmoord of geweld. Het zou gebruikers ook doorverwijzen naar zelfbeschadigende crisisbronnen “wanneer risicovol taalgebruik wordt gedetecteerd.”
Maar het valt nog te bezien hoe de staat deze bescherming zal afdwingen en welke straffen wetgevers zullen opleggen aan bedrijven waarvan de chatbots deze schenden.
“Dit soort eisen zal heel moeilijk te handhaven zijn”, zei Heidari.
Maar ze benadrukte dat de moeilijkheid agentschappen er niet van mag weerhouden om het helemaal te proberen. Heidari zei dat AI-veiligheidsregels moeten worden ontwikkeld als onderdeel van een breder ‘Zwitsers kaasmodel’ voor risicobeheer – een model waarin geen enkele bescherming op zichzelf perfect is.
“Elk van deze lagen is feilbaar, maar als je ze op elkaar stapelt, krijg je hopelijk iets beters: meer bescherming”, zei ze.
Patchwork-systeem
Net als de goudkoorts van het Wilde Westen hebben kunstmatige intelligentie en generatieve AI-instrumenten een snelle, ongereguleerde groei gekend die het beleid en de regelgeving in de Verenigde Staten heeft overtroffen. En onder de tweede regering-Trump is het niet duidelijk of dat op federaal niveau zal veranderen. President Trump ondertekende een uitvoerend bevel in december ontmoedigde hij op de staat gebaseerde regulering en dreigde hij “actie te ondernemen” tegen staten die “zware en buitensporige wetten uitvaardigen … die de innovatie dreigen te belemmeren.”
Het bevel beloofde een “minimaal belastend nationaal beleidskader voor AI” en richtte een taskforce voor AI-geschillen op die belast is met het uitdagen van AI-wetten op staatsniveau die niet in overeenstemming zijn met de prioriteiten van de federale overheid.
Ondertussen blijven deelstaatregeringen maatregelen nemen om AI en begeleidende bots te reguleren, waarbij Californië een van de leidende spelers is. De staat heeft sinds 2024 een reeks wetgeving aangenomen die gericht is op het verbeteren van de transparantie, veiligheid en verantwoordelijkheid voor AI-modellen. New York heeft soortgelijke maatregelen geïmplementeerd. Nu Pennsylvania en andere staten hun eigen regels ontwikkelen, is volgens Heidari het resultaat een lappendekensysteem dat voor AI-bedrijven moeilijk te volgen kan zijn.
“Dit belooft niet veel goeds voor een verenigd, samenhangend systeem waarin bedrijven en andere AI-stakeholders kunnen beslissen wat ze gaan doen”, zei ze. “Er zijn zoveel richtingen waarin ze worden getrokken.”
Afgezien van het federale AI-beleid is het volgens Heidari waarschijnlijk dat grote bevolkingsstaten als Californië en New York de toon zullen zetten voor AI-regulering. Ze zei dat het onwaarschijnlijk is dat bedrijven verschillende chatbotplatforms in verschillende staten zullen uitrollen en zich waarschijnlijk zullen houden aan de regelgeving van grotere staten.
‘Ze kunnen de toon zetten voor het hele land’, zei ze. “Het heeft geen zin dat (AI-bedrijven) zeggen: ‘Oh, is de gebruiker in Pennsylvania? Zijn ze net de grens naar Virginia overgestoken?’ Ze gaan dus eigenlijk gewoon uit van wat voor de meeste gevallen van toepassing is.”
Heidari zei dat Pennsylvania onder de hernieuwde inspanningen van Shapiro zou kunnen uitgroeien tot een nieuwe belangrijke speler in het reguleren van AI in de VS.
“Het is goed dat de regering (Shapiro) een verantwoordelijke houding aanneemt en ze probeert dit te doen in gesprek met de belanghebbenden en experts”, zei Heidari. “Anders is er een manier waarop regelgeving slechts lippendienst kan bewijzen aan bepaalde politieke agenda’s zonder enige impact te hebben.”






