Lemoine werkte voor een verantwoordelijke kunstmatige-intelligentieorganisatie bij Google en als onderdeel van zijn werk begon hij in de herfst te praten met LaMDA, het kunstmatige-intelligentiesysteem van het bedrijf voor het bouwen van chatbots. Hij kwam tot de overtuiging dat de technologie bewust was na opname om te testen of de AI discriminerende of haatdragende taal kon gebruiken.
In een verklaring zei Google-woordvoerder Brian Gabriel dat het bedrijf AI-ontwikkeling serieus neemt en LaMDA 11 keer heeft beoordeeld, evenals een onderzoekspaper publiceert waarin de inspanningen voor verantwoorde ontwikkeling worden beschreven.
“Als een werknemer zorgen deelt over ons werk, zoals Blake deed, beoordelen we ze in grote lijnen”, voegde hij eraan toe. “We vonden Blake’s beweringen dat LaMDA gevoelig is volkomen ongegrond en hebben enkele maanden met hem gewerkt om dit op te helderen.”
De gesprekken schrijf ik toe aan de open bedrijfscultuur.
“Het is jammer dat Blake, ondanks zijn langdurige betrokkenheid bij dit onderwerp, er nog steeds voor kiest om consequent duidelijke beleidsregels voor werkgelegenheid en gegevensbeveiliging te schenden, waaronder de noodzaak om productinformatie te beschermen”, voegde Gabriel eraan toe. “We zullen onze rigoureuze ontwikkeling van taalmodellen voortzetten en we wensen Blake het beste.”
Lemoine schietpartij werd voor het eerst gemeld in Big Tech-nieuwsbrief.
citroen interviews met lambda Het leidde tot een uitgebreide discussie over recente ontwikkelingen op het gebied van kunstmatige intelligentie, een algemeen misverstand over hoe deze systemen werken en maatschappelijk verantwoord ondernemen. Google ontsloeg de hoofden van zijn ethische AI-afdeling, Margaret Mitchell en… Timnit Gibruna Pas op voor gevaren geassocieerd met deze technologie.
LaMDA gebruikt de meest geavanceerde grote taalmodellen van Google, een soort kunstmatige intelligentie die tekst herkent en maakt. Onderzoekers zeggen dat deze systemen taal of betekenis niet kunnen begrijpen. Maar ze kunnen misleidende spraak produceren die lijkt op menselijke spraak, omdat ze zijn getraind op enorme hoeveelheden gegevens die van internet zijn gecrawld om het volgende meest waarschijnlijke woord in een zin te voorspellen.
Nadat LaMDA met Lemoine had gesproken over het personage en haar rechten, begon hij verder onderzoek te doen. In april deelde hij een Google-document met CEO’s getiteld “Is LaMDA Sensitive?” waaronder enkele van zijn gesprekken met LaMDA, waarin hij beweerde bij bewustzijn te zijn. Twee Google-managers hebben zijn beschuldigingen in overweging genomen en afgewezen.
Lemoine werd eerder in juni met betaald administratief verlof geplaatst wegens het schenden van het vertrouwelijkheidsbeleid van het bedrijf. De ingenieur, die het grootste deel van zijn zeven jaar bij Google heeft gewerkt aan proactief onderzoek, inclusief personalisatie-algoritmen, zei dat hij de mogelijkheid overweegt om zijn eigen AI-bedrijf op te richten dat zich richt op collaboratieve videogames voor het vertellen van verhalen.
“Amateur-organisator. Wannabe-bierevangelist. Algemene webfan. Gecertificeerde internetninja. Fanatieke lezer.”
More Stories
Werknemers van Daimler Trucks bereiken overeenstemming en vermijden stakingsdreiging in North Carolina
Een Boeing-vliegtuig van Delta Air Lines verloor een noodslip in de lucht na het opstijgen vanaf JFK Airport
Exxon Mobil en Chevron kondigen een daling van hun winst aan