juni 27, 2022

Soest Nu

Soest Nu is de toonaangevende aanbieder van kwalitatief Nederlands nieuws in het Engels voor een internationaal publiek.

Nee, de AI van Google is niet bewust

Nee, de AI van Google is niet bewust

volgens Oogverblindend verhaal In de Washington Post op zaterdag zei een Google-ingenieur dat na honderden interacties met een niet eerder uitgebracht geavanceerd kunstmatige-intelligentiesysteem genaamd lambdaHet programma werd verondersteld een niveau van bewustzijn te hebben bereikt.

In interviews en openbare verklaringen hebben velen in de AI-gemeenschap de beweringen van de ingenieur afgewezen, terwijl sommigen erop hebben gewezen dat zijn account benadrukt hoe technologie mensen ertoe kan brengen er menselijke eigenschappen aan toe te kennen. Maar het kan worden beargumenteerd dat de overtuiging dat de AI van Google bewust kan zijn, onze angsten en verwachtingen benadrukt over wat deze technologie kan doen.

LaMDA, wat staat voor Language Model for Dialog Applications, is een van de vele grootschalige AI-systemen die zijn getraind op grote stukken tekst van internet en kunnen reageren op schriftelijke aanwijzingen. Ze hebben in wezen de taak om patronen te vinden en te voorspellen welk woord of welke woorden als volgende moeten komen. Dergelijke systemen werden steeds beter vragen beantwoorden en schrijven op manieren die overtuigend menselijk lijken – en Google zelf LaMDA introduceerde afgelopen mei in een blogpost Als een kan hij “zich op een vrij vloeiende manier bezighouden met een schijnbaar oneindig aantal onderwerpen”. Maar de resultaten kunnen ook belachelijk, raar, vervelend en vatbaar voor afleiding zijn.

Ingenieur Blake Lemoine vertelde naar verluidt aan de Washington Post dat hij het bewijs met Google had gedeeld dat Lambda bij bewustzijn was, maar het bedrijf was het daar niet mee eens. In een verklaring zei Google maandag dat zijn team, dat bestaat uit ethici en technologen, “de zorgen van Blake heeft beoordeeld in overeenstemming met onze AI-principes en hem heeft laten weten dat het bewijs zijn beweringen niet ondersteunt.”

Op 6 juni plaatste Lemoine op Medium dat Google hem met betaald administratief verlof had geplaatst “in verband met een onderzoek naar ethische zorgen over kunstmatige intelligentie die ik binnen het bedrijf had geuit” en dat hij “binnenkort” zou kunnen worden ontslagen. (Hij noemde de ervaring van Margaret Mitchell, die de leider was van het ethische AI-team bij Google tot Google schopte het begin 2021 eruit Na haar openhartig over Eind 2020 zal Timnit Gebro, de toenmalige co-leider, vertrekken. Gebru werd afgezet na interne ruzies, waaronder een in verband met een onderzoekspaper waarin de AI-leiding van het bedrijf werd gevraagd om de overweging van het aanbod op een conferentie in te trekken of haar naam te verwijderen.)

Een Google-woordvoerder bevestigde dat Lemoine met administratief verlof blijft. Volgens The Washington Post kreeg hij verlof wegens schending van het vertrouwelijkheidsbeleid van het bedrijf.

READ  Disney, Netflix en Comcast zeggen dat ze werknemersreizen zullen dekken om abortussen uit te voeren

Lemoine was maandag niet bereikbaar voor commentaar.

De voortdurende opkomst van krachtige computerprogramma’s die op big data zijn getraind, heeft geleid tot bezorgdheid over de ethiek die de ontwikkeling en het gebruik van deze technologie beheerst. En soms worden ontwikkelingen bekeken vanuit het perspectief van wat zou kunnen komen, in plaats van wat nu mogelijk is.

Reacties van degenen in de AI-gemeenschap op het experiment van Lemoine echoden dit weekend op sociale media en kwamen over het algemeen tot dezelfde conclusie: de AI van Google komt niet eens in de buurt van het bewustzijn. Abiba Birhani, betrouwbare senior fellow in kunstmatige intelligentie bij Mozilla, tjilpen Op zondag: “We zijn een nieuw tijdperk van ‘dit bewuste neurale netwerk’ ingegaan en deze keer zal het veel energie kosten om het te weerleggen.”
Gary Marcus, oprichter en CEO van Uber-verkochte Geometric Intelligence, en auteur van boeken, waaronder “Rebooting AI: Building Artificial Intelligence We Can Trust”, beschreef het idee van LaMDA als bewust “Bullshit op stelten” in een tweet. schreef snel Blogpost We merken op dat al deze AI-systemen patroonovereenkomsten uitvoeren door te putten uit enorme taaldatabases.

In een interview maandag met CNN Business zei Marcus dat de beste manier om systemen als LaMDA te zien, is als een “verheerlijkte versie” van een automatisch aanvullen-programma dat je zou kunnen gebruiken om het volgende woord in een sms-bericht te voorspellen. Als je schrijft: “Ik heb echt honger, dus ik wil naar toe”, zou hij “restaurant” als je volgende woord kunnen voorstellen. Maar dit is een voorspelling gemaakt met behulp van statistieken.

READ  'Het is allemaal weg': Russische bedrijven hard getroffen door technische sancties

“Niemand zou moeten denken dat automatische aanvulling, zelfs op steroĆÆden, bewust is”, zei hij.

In een interview met Gebru, een oprichter en CEO van Gedistribueerd onderzoeksinstituut voor kunstmatige intelligentieDAIR, of DAIR, Lemoine zei dat hij het slachtoffer is van veel bedrijven die beweren dat bewuste kunstmatige intelligentie of kunstmatige algemene intelligentie – een idee dat verwijst naar kunstmatige intelligentie die mensachtige taken kan uitvoeren en op zinvolle manieren met ons kan communiceren – niet ver weg is .
Google bood de professor $ 60.000, maar hij weigerde.  Dit is waarom
Ilya Sutskiver, mede-oprichter en hoofdwetenschapper bij OpenAI, merkt bijvoorbeeld op: tjilpen In februari: “De grote neurale netwerken van vandaag zijn misschien een beetje bewust.” En vorige week, vice-president van Google Research en collega Blaise Aguera y Arcas Geschreven in een artikel voor The Economist dat toen hij vorig jaar LaMDA begon te gebruiken, “Ik steeds meer het gevoel kreeg dat ik het over iets slims had.” (Dit artikel bevat nu een redacteursnota waarin staat dat Lemoine sindsdien “met verlof is genomen nadat hij in een interview met de Washington Post beweerde dat LaMDA, de chatbot van Google, “bewust was geworden”.)

“Wat er gebeurt, is dat er zo’n race is om meer data te gebruiken, meer computers, om te zeggen dat je dit generieke ding hebt gemaakt dat je allemaal kent, al je vragen beantwoordt of wat dan ook, en dat is de drum die je hebt bespeeld,” Gebru gezegd. . “Dus hoe ben je verrast als deze persoon tot het uiterste gaat?”

In zijn verklaring merkte Google op dat LaMDA 11 “onderscheiden beoordelingen van AI-principes” heeft ondergaan, evenals “rigoureus onderzoek en testen” met betrekking tot kwaliteit, veiligheid en het vermogen om met op feiten gebaseerde gegevens te komen. “Natuurlijk bestuderen sommigen in de bredere AI-gemeenschap het langetermijnpotentieel van bewuste of algemene AI, maar het heeft geen zin om dit te doen door de huidige gespreksmodellen te belichamen, die niet bewust zijn”, aldus het bedrijf.

READ  Dow-futures: wat te doen als de bearmarkt intensiveert; Bitcoin breekt $ 20.000

“Honderden onderzoekers en ingenieurs hebben gesprekken gevoerd met lambda, en we zijn ons niet bewust van iemand anders die zulke uitgebreide beweringen doet of lambda belichaamt als Blake deed,” zei Google.