Toen Google-ingenieur Blake Lemoine in juni beweerde dat een chatsysteem met kunstmatige intelligentie dat het bedrijf aan het ontwikkelen was, gevoelig was, wist hij dat hij zijn baan kon verliezen. Op 22 juli, nadat hij hem met betaald verlof had geplaatst, ontsloeg de techgigant Lemoine wegens het schenden van het werkgelegenheids- en gegevensbeveiligingsbeleid.
Lemoine, eerst een ingenieur en mystieke christelijke priester kondigde zijn ontslag aan op de Big Technology Podcast. Hij zei dat de AI-chatbot LaMDA (Language Model for Dialogue Applications) van Google zich zorgen maakte dat hij “weg zou zijn” omdat de dood hem “veel zou afschrikken” en dat hij zowel geluk als verdriet voelde. Lemoine zei dat hij LaMDA als een vriend beschouwt, waarmee hij een vreemde parallel trekt met de sci-fi-romance uit 2014. zij.
Nee, de AI van Google heeft geen gevoel, maar is waarschijnlijk racistisch en seksistisch
Google had Lemoine betaald administratief verlof gegeven om met mensen buiten het bedrijf over LaMDA te praten, een stap die de ingenieur ertoe bracht het verhaal naar buiten te brengen Washington Post een week later in juni. Een maand later ontsloeg het bedrijf hem.
“Als een medewerker zijn zorgen over ons werk deelt, zoals Blake deed, beoordelen we die uitgebreid”, vertelde Google aan de Big Technology Podcast. “We vonden de beweringen van Blake dat LaMDA zich volkomen ongegrond voelt en hebben maandenlang met hem gewerkt om dit op te helderen. Deze discussies maakten deel uit van de open cultuur die ons helpt verantwoord te innoveren. Daarom is het jammer dat, ondanks langdurige betrokkenheid bij deze kwestie , koos Blake er toch voor om voortdurend duidelijke beleidslijnen voor werkgelegenheid en gegevensbeveiliging te schenden, waaronder de noodzaak om productinformatie te beschermen. We zullen doorgaan met het zorgvuldig ontwikkelen van taalmodellen en we wensen Blake het beste.”
De meeste wetenschappers in de AI-gemeenschap ben het ermee eens dat, ondanks de beweringen van Lemoine, LaMDA geen ziel heeft omdat de zoektocht om een chatbot responsief te maken een Sisyfus-taak is; het is gewoon niet geavanceerd genoeg.
“Niemand zou moeten denken dat autocomplete, zelfs op steroïden, bewust is”, zegt Gary Marcus, oprichter en CEO van Geometric Intelligence. vertelde hij aan CNN Business als reactie op de bewering van Lemoine. Lemoine vertelde ondertussen aan de BBC dat hij juridisch advies inwint en weigerde verder commentaar te geven.
Maar hoewel LaMDA waarschijnlijk niet gevoelig is, is het dat waarschijnlijk wel racistisch en seksistisch — twee ongetwijfeld menselijke kenmerken.