SAN FRANCISCO (Reuters) – Alphabet Inc (GOOGL.O) waarschuwde werknemers over hoe ze zijn chatbots gebruikten, inclusief zijn Bard, terwijl het de software over de hele wereld op de markt bracht, aldus vier mensen die bekend zijn met de zaak. Reuters.
Het moederbedrijf van Google adviseerde werknemers om zijn vertrouwelijke materiaal niet in slimme chatbots in te voeren, zeiden de mensen en het bedrijf bevestigde dit, daarbij verwijzend naar een al lang bestaand beleid inzake informatiebescherming.
Chatbots, waaronder Bard en ChatGPT, zijn mensachtige programma’s die zogenaamde generatieve kunstmatige intelligentie gebruiken om gesprekken met gebruikers te voeren en talloze prompts te beantwoorden. Menselijke recensenten kunnen chats lezen en De onderzoekers vonden Vergelijkbare AI kan de data reproduceren die het tijdens de training heeft opgenomen, wat leidt tot het risico op lekkage.
Sommige mensen zeiden dat Alphabet zijn ingenieurs ook waarschuwde om direct gebruik van computercode die chatbots zouden kunnen genereren te vermijden.
Toen hem om commentaar werd gevraagd, zei het bedrijf dat Bard ongevraagde codesuggesties kan doen, maar dat het programmeurs toch helpt. Google zei ook dat het transparant wil zijn over de beperkingen van zijn technologie.
De zorgen laten zien hoe Google zakelijke schade wil voorkomen door de programma’s die het heeft gelanceerd in concurrentie met ChatGPT. Op het spel in de race van Google tegen ChatGPT OpenAI-ondersteuners en Microsoft Corp (MSFT.O) staan miljarden dollars aan investeringen en nog steeds onnoemelijke reclame- en cloudinkomsten uit nieuwe AI-software.
De waarschuwing van Google weerspiegelt ook wat een beveiligingsstandaard voor bedrijven is geworden, namelijk het waarschuwen van individuen tegen het gebruik van openbaar beschikbare chatbots.
Een toenemend aantal bedrijven over de hele wereld hebben firewalls op intelligente chatbots geplaatst, vertelden de bedrijven aan Reuters, waaronder Samsung (005930.KS), Amazon.com (AMZN.O) en Deutsche Bank (DBKGn.DE). Apple (AAPL.O), dat niet reageerde op verzoeken om commentaar, heeft dit naar verluidt ook gedaan.
Ongeveer 43% van de professionals gebruikte in januari ChatGPT of andere AI-tools, vaak zonder het hun bazen te vertellen, volgens een onderzoek onder bijna 12.000 respondenten, onder meer van grote Amerikaanse bedrijven, uitgevoerd door de netwerksite Fishbowl. .
In februari had Google werknemers die de Bard testten vóór de lancering gevraagd om geen voorkennis te geven, Ik noemde binnen. Google rolt nu Bard uit in meer dan 180 landen en in 40 talen als een springplank naar creativiteit, en zijn kanttekeningen strekken zich uit tot zijn codesuggesties.
Google vertelde Reuters dat het gedetailleerde gesprekken had gevoerd met de Ierse Commissie voor gegevensbescherming om de vragen van regelgevers te beantwoorden, naar aanleiding van het rapport van Politico dinsdag dat het bedrijf de lancering van Bard in de EU deze week uitstelde in afwachting van meer informatie over de impact van de chatbot op de privacy.
Zorgen over gevoelige informatie
Dergelijke technologie kan e-mails, documenten en zelfs de programma’s zelf maken en belooft taken exponentieel te versnellen. Deze inhoud kan echter valse informatie, gevoelige gegevens of zelfs auteursrechtelijk beschermde passages uit de roman “Harry Potter” bevatten.
In de privacyverklaring van Google, bijgewerkt op 1 juni, staat ook: “Neem geen vertrouwelijke of gevoelige informatie op in uw Bard-gesprekken.”
Sommige bedrijven hebben software ontwikkeld om dergelijke problemen aan te pakken. Zo brengt Cloudflare (NET.N), dat websites verdedigt tegen cyberaanvallen en andere clouddiensten aanbiedt, de mogelijkheid voor bedrijven op de markt om bepaalde gegevens uit de uitstroom te markeren en te beperken.
Google en Microsoft bieden ook conversatietools aan zakelijke klanten die een hogere prijs vragen, maar afzien van het opnemen van gegevens in generieke AI-modellen. De standaardinstelling in Bard en ChatGPT is om de chatgeschiedenis van gebruikers op te slaan, die gebruikers kunnen verwijderen.
Yousef Mahdi, Chief Consumer Marketing Officer van Microsoft, zei dat het “logisch” is dat bedrijven niet willen dat hun werknemers openbare chatbots gebruiken op het werk.
“Bedrijven nemen terecht een conservatieve houding aan”, zei Mehdi, terwijl hij uitlegde hoe de gratis Bing-chatbot van Microsoft zich verhoudt tot zijn bedrijfssoftware. “Daar is ons beleid veel strenger.”
Microsoft weigerde commentaar te geven op de vraag of het een algemeen verbod had op werknemers om vertrouwelijke informatie in te voeren in openbare AI-programma’s, inclusief die van zichzelf, hoewel een andere leidinggevende daar tegen Reuters vertelde dat hij het gebruik ervan persoonlijk had beperkt.
Het schrijven van vertrouwelijke zaken in chatbots was als “een stel PhD-studenten door je privédossiers scheppen”, zei Matthew Prince, CEO van Cloudflare.
Rapportage door Jeffrey Dustin en Anna Tong in San Francisco Bewerking door Kenneth Lee en Nick Zieminski
Onze normen: Vertrouwensprincipes van Thomson Reuters.
“Amateur-organisator. Wannabe-bierevangelist. Algemene webfan. Gecertificeerde internetninja. Fanatieke lezer.”
More Stories
De Fed wachtte op de juiste cijfers. Het keerpunt is bijna daar.
“Verwacht geen nieuwe rally op 22 mei”, zegt Piper Sandler over Nvidia-aandelen.
De inspanningen van de UAW om Mercedes-werknemers in Alabama te organiseren brengen grote risico’s met zich mee