In interviews en openbare verklaringen hebben velen in de AI-gemeenschap de beweringen van de ingenieur afgewezen, terwijl sommigen erop hebben gewezen dat zijn account benadrukt hoe technologie mensen ertoe kan brengen er menselijke eigenschappen aan toe te kennen. Maar het kan worden beargumenteerd dat de overtuiging dat de AI van Google bewust kan zijn, onze angsten en verwachtingen benadrukt over wat deze technologie kan doen.
LaMDA, wat staat voor Language Model for Dialog Applications, is een van de vele grootschalige AI-systemen die zijn getraind op grote stukken tekst van internet en kunnen reageren op schriftelijke aanwijzingen. Ze hebben in wezen de taak om patronen te vinden en te voorspellen welk woord of welke woorden als volgende moeten komen. Dergelijke systemen werden
steeds beter vragen beantwoorden en schrijven op manieren die overtuigend menselijk lijken – en Google zelf
LaMDA introduceerde afgelopen mei in een blogpost Als een kan hij “zich op een vrij vloeiende manier bezighouden met een schijnbaar oneindig aantal onderwerpen”. Maar de resultaten kunnen ook belachelijk, raar, vervelend en vatbaar voor afleiding zijn.
Ingenieur Blake Lemoine vertelde naar verluidt aan de Washington Post dat hij het bewijs met Google had gedeeld dat Lambda bij bewustzijn was, maar het bedrijf was het daar niet mee eens. In een verklaring zei Google maandag dat zijn team, dat bestaat uit ethici en technologen, “de zorgen van Blake heeft beoordeeld in overeenstemming met onze AI-principes en hem heeft laten weten dat het bewijs zijn beweringen niet ondersteunt.”
Op 6 juni plaatste Lemoine op Medium dat Google hem met betaald administratief verlof had geplaatst “in verband met een onderzoek naar ethische zorgen over kunstmatige intelligentie die ik binnen het bedrijf had geuit” en dat hij “binnenkort” zou kunnen worden ontslagen. (Hij noemde de ervaring van Margaret Mitchell, die de leider was van het ethische AI-team bij Google tot
Google schopte het begin 2021 eruit Na haar openhartig over
Eind 2020 zal Timnit Gebro, de toenmalige co-leider, vertrekken. Gebru werd afgezet na interne ruzies, waaronder een in verband met een onderzoekspaper waarin de AI-leiding van het bedrijf werd gevraagd om de overweging van het aanbod op een conferentie in te trekken of haar naam te verwijderen.)
Een Google-woordvoerder bevestigde dat Lemoine met administratief verlof blijft. Volgens The Washington Post kreeg hij verlof wegens schending van het vertrouwelijkheidsbeleid van het bedrijf.
Lemoine was maandag niet bereikbaar voor commentaar.
De voortdurende opkomst van krachtige computerprogramma’s die op big data zijn getraind, heeft geleid tot bezorgdheid over de ethiek die de ontwikkeling en het gebruik van deze technologie beheerst. En soms worden ontwikkelingen bekeken vanuit het perspectief van wat zou kunnen komen, in plaats van wat nu mogelijk is.
Reacties van degenen in de AI-gemeenschap op het experiment van Lemoine echoden dit weekend op sociale media en kwamen over het algemeen tot dezelfde conclusie: de AI van Google komt niet eens in de buurt van het bewustzijn. Abiba Birhani, betrouwbare senior fellow in kunstmatige intelligentie bij Mozilla,
tjilpen Op zondag: “We zijn een nieuw tijdperk van ‘dit bewuste neurale netwerk’ ingegaan en deze keer zal het veel energie kosten om het te weerleggen.”
Gary Marcus, oprichter en CEO van Uber-verkochte Geometric Intelligence, en auteur van boeken, waaronder “Rebooting AI: Building Artificial Intelligence We Can Trust”, beschreef het idee van LaMDA als bewust
“Bullshit op stelten” in een tweet. schreef snel
Blogpost We merken op dat al deze AI-systemen patroonovereenkomsten uitvoeren door te putten uit enorme taaldatabases.
In een interview maandag met CNN Business zei Marcus dat de beste manier om systemen als LaMDA te zien, is als een “verheerlijkte versie” van een automatisch aanvullen-programma dat je zou kunnen gebruiken om het volgende woord in een sms-bericht te voorspellen. Als je schrijft: “Ik heb echt honger, dus ik wil naar toe”, zou hij “restaurant” als je volgende woord kunnen voorstellen. Maar dit is een voorspelling gemaakt met behulp van statistieken.
“Niemand zou moeten denken dat automatische aanvulling, zelfs op steroïden, bewust is”, zei hij.
In een interview met Gebru, een oprichter en CEO van
Gedistribueerd onderzoeksinstituut voor kunstmatige intelligentieDAIR, of DAIR, Lemoine zei dat hij het slachtoffer is van veel bedrijven die beweren dat bewuste kunstmatige intelligentie of kunstmatige algemene intelligentie – een idee dat verwijst naar kunstmatige intelligentie die mensachtige taken kan uitvoeren en op zinvolle manieren met ons kan communiceren – niet ver weg is .
Ilya Sutskiver, mede-oprichter en hoofdwetenschapper bij OpenAI, merkt bijvoorbeeld op:
tjilpen In februari: “De grote neurale netwerken van vandaag zijn misschien een beetje bewust.” En vorige week, vice-president van Google Research en collega Blaise Aguera y Arcas
Geschreven in een artikel voor The Economist dat toen hij vorig jaar LaMDA begon te gebruiken, “Ik steeds meer het gevoel kreeg dat ik het over iets slims had.” (Dit artikel bevat nu een redacteursnota waarin staat dat Lemoine sindsdien “met verlof is genomen nadat hij in een interview met de Washington Post beweerde dat LaMDA, de chatbot van Google, “bewust was geworden”.)
“Wat er gebeurt, is dat er zo’n race is om meer data te gebruiken, meer computers, om te zeggen dat je dit generieke ding hebt gemaakt dat je allemaal kent, al je vragen beantwoordt of wat dan ook, en dat is de drum die je hebt bespeeld,” Gebru gezegd. . “Dus hoe ben je verrast als deze persoon tot het uiterste gaat?”
In zijn verklaring merkte Google op dat LaMDA 11 “onderscheiden beoordelingen van AI-principes” heeft ondergaan, evenals “rigoureus onderzoek en testen” met betrekking tot kwaliteit, veiligheid en het vermogen om met op feiten gebaseerde gegevens te komen. “Natuurlijk bestuderen sommigen in de bredere AI-gemeenschap het langetermijnpotentieel van bewuste of algemene AI, maar het heeft geen zin om dit te doen door de huidige gespreksmodellen te belichamen, die niet bewust zijn”, aldus het bedrijf.
“Honderden onderzoekers en ingenieurs hebben gesprekken gevoerd met lambda, en we zijn ons niet bewust van iemand anders die zulke uitgebreide beweringen doet of lambda belichaamt als Blake deed,” zei Google.
More Stories
Mark Zuckerberg verdedigt de AI-uitgaven van Meta nu de aandelen dalen
Boeing kondigt een verlies van $355 miljoen aan als gevolg van de deurexplosiecrisis
Oracle kondigt plannen aan om het wereldwijde hoofdkantoor naar Nashville te verhuizen