Kunstmatige intelligentie zou kunnen worden gebruikt om het leren, de creativiteit en de sociale interactie tussen kinderen en tieners te verbeteren, zo blijkt uit vroeg onderzoek.
Maar de technologie kan schadelijk zijn voor de ontwikkeling van kinderen zonder de juiste waarborgen, blijkt uit een nieuw overzichtsonderzoek dat eerder deze maand in het tijdschrift Pediatrics werd gepubliceerd door experts van het Children’s Hospital in Philadelphia.
“Op dit moment nemen velen van ons deel aan dit natuurlijke experiment om uit te zoeken hoe deze hulpmiddelen nuttig kunnen zijn en op welke manieren ze schadelijk kunnen zijn”, zegt dr. Robert Grundmeier, een CHOP-kinderarts in de eerste lijn. “Wat we echt nodig hebben is georganiseerd en rigoureus onderzoek om echt te helpen deze vragen te beantwoorden.”
AI wordt snel onderdeel van het dagelijks leven en wordt gebruikt in kinderspeelgoed, games, sociale media, programma’s voor gedragsgezondheid, klaslokalen en elders. Bijna tweederde van de tieners die afgelopen herfst door het Pew Research Center werden ondervraagd, meldde dat ze een AI-chatbot hadden gebruikt.
Deze ervaringen inspireerden Grundmeier en een team van CHOP-kinderartsen, psychologen en AI-experts om gegevens te verzamelen die verspreid waren over verschillende vroege onderzoeken over dit onderwerp en om de grootste voordelen en risico’s van de technologie voor kinderen van verschillende leeftijden te identificeren.
“En opvallend genoeg zijn we ook allemaal ouders en navigeren we door deze wereld op het gebied van kunstmatige intelligentie in onze eigen huishoudens,” zei Grundmeier.
Wat zegt het onderzoek?
Onderzoekers ontdekten dat interactieve AI-vertelprogramma’s en speelgoed in de zeer vroege kinderjaren bij kinderen van 5 jaar en jonger de taalontwikkeling en woordenschat kunnen ondersteunen en zelfs de interactie tussen gezinsleden kunnen verbeteren.
Grundmeier, tevens directeur klinische informatica bij de afdeling Biomedische en Gezondheidsinformatica van CHOP, gebruikt het voorbeeld van een uitgeputte ouder wiens kind om een origineel verhaaltje voor het slapengaan vraagt.
‘Misschien voel je je op dat moment niet op je meest creatief’, zei hij. “Je kunt als ouder dus vrij eenvoudig een AI-tool gebruiken om een geïndividualiseerd verhaal te genereren dat je vervolgens aan je kind kunt voorlezen en die betrokkenheid in je huishouden kunt bevorderen.”
Maar wanneer kinderen in deze leeftijdsgroep worden blootgesteld aan andere vormen van de technologie, kunnen ze moeite hebben om het verschil te zien tussen wat AI is en wat echte menselijke interactie is.
“Als je interactie hebt met kunstmatige intelligentie, kan het, hoewel het empathisch kan lijken, in veel opzichten doen alsof het menselijk is, maar het is in wezen niet menselijk,” zei Grundmeier. “Er gebeurt gewoon veel wiskunde achter de schermen. En er zijn verschillen in de manier waarop deze tools zichzelf presenteren dan een echt mens zou doen.”
Naarmate kinderen ouder worden, kunnen ze op school of thuis interactie hebben met AI-programma’s. De technologie heeft veel potentieel om het onderwijs af te stemmen op de behoeften van een individueel kind en om leerlacunes op het gebied van lezen, rekenen en andere vakken aan te pakken, aldus Grundmeier.
Maar onderzoekers en zorgverleners zijn bang dat blootstelling aan dit soort programma’s zonder de juiste waarborgen kan leiden tot problemen als ‘de-skilling’, waarbij kinderen het vermogen verliezen om iets te doen wat ze voorheen konden doen vanwege een te grote afhankelijkheid van AI.
“Of in het geval van voor- en vroegschoolse educatie kunnen we ons zorgen maken over ‘never-skilling’,” zei Grundmeier, “wat betekent dat ze nooit leren hoe ze een bepaalde taak moeten uitvoeren, omdat ze de AI feitelijk hebben gevraagd om het voor hen te doen, in plaats van de AI te gebruiken als een hulpmiddel om hen te helpen leren.”
AI en tieners
Naarmate tieners AI meer gaan gebruiken of zien, kunnen ze ook moeite hebben om te identificeren wanneer de technologie verkeerde informatie of valse interpretaties van gebeurtenissen, ideeën en feiten produceert.
Zorgverleners zeggen dat dit vooral gevaarlijk kan zijn als kinderen en tieners AI-gerelateerde programma’s of chatbots raadplegen over geestelijke gezondheidsproblemen, ook voor gedachten over zelfmoord.
“Er is onderzoek dat aantoont dat sommige van deze AI-tools bij het bespreken van onderwerpen in de geestelijke gezondheidszorg heel slecht advies kunnen geven,” zei Grundmeier, “wat echt ingaat op de noodzaak van meer vangrailontwikkeling om ervoor te zorgen dat deze tools echt positieve interacties ondersteunen en, als er een interactie is die slecht verloopt, kunnen overstappen om ervoor te zorgen dat mensen de hulp krijgen die ze nodig hebben.”
Aan de positieve kant zeiden onderzoekers dat ze tieners AI-hulpmiddelen op creatieve en positieve manieren hebben zien gebruiken, onder meer door aan hun sociale vaardigheden te werken, de relaties met vrienden en familie te verbeteren en nieuwe dingen te leren.
“Tieners gebruiken ze misschien als coach om erachter te komen hoe ze een moeilijk gesprek met een vriend moeten aanpakken”, zegt Grundmeier. “Ze gebruiken het misschien om iets te leren over een gebied waarin ze geïnteresseerd zijn, maar hebben gewoon geen andere manieren om er echt meer over te leren.”
Uiteindelijk willen veel van de families die Grundmeier bij CHOP in Zuid-Philadelphia ziet, gewoon hulp bij het begrijpen hoe AI werkt en wat ze kunnen doen om ervoor te zorgen dat hun kinderen het veilig gebruiken.
“Ik hoor veel van ouders dat ze denken: ‘Ik begrijp dit niet echt, het maakt me bang. Mijn kind wordt eraan blootgesteld, maar ik weet niet hoe ik ze moet begeleiden'”, zei hij. “En ik denk dat dit echt een focus moet zijn voor toekomstig onderzoek en begeleiding: hoe we mensen echt kunnen helpen hun kinderen het verschil te leren begrijpen tussen echte informatie en mogelijk onjuiste informatie van een AI.”
Pennsylvania sluit zich aan bij andere staten in het hele land bij het opzetten van AI-geletterdheidsprogramma’s, veiligheidsnormen en rapportagetools waarmee mensen AI-technologie kunnen identificeren die schadelijk zou kunnen zijn voor kinderen, senioren en andere kwetsbare bevolkingsgroepen.





