Net als je denkt dat het online leven niet erger kan worden dan het al is, komt Meta tussenbeide om te bewijzen dat je ongelijk hebt.
De nieuwe AI-chatbot BlenderBot 3 van het bedrijf, die enkele dagen geleden op vrijdag 5 augustus in de VS werd gelanceerd, legt al een reeks valse verklaringen af op basis van interacties met echte mensen online. Enkele van de meest flagrante zijn onder meer beweringen dat Donald Trump de Amerikaanse presidentsverkiezingen van 2020 heeft gewonnen en momenteel president is, antisemitische complottheorieën, evenals opmerkingen waarin Facebook wordt beschuldigd van al zijn “nepnieuws”. Dit ondanks dat het eigendom is van het bedrijf dat voorheen bekend stond als Facebook.
Google ontslaat ingenieur omdat hij zegt dat zijn AI een ziel heeft
Meta’s BlenderBot 3 kan op internet zoeken om met mensen over bijna alles te praten, in tegenstelling tot eerdere versies van de chatbot. Het kan het allemaal terwijl het leunt op de vaardigheden die het biedt eerdere versies van BlenderBotzoals persoonlijkheid, empathie, kennis en het vermogen om een langetermijngeheugen te hebben met betrekking tot de gesprekken die u hebt gevoerd.
Chatbots leren communiceren door met het publiek te praten, dus moedigt Meta volwassenen aan om met de bot te praten om hem te helpen natuurlijke gesprekken te voeren over een breed scala aan onderwerpen. Maar dit betekent dat de chatbot ook verkeerde informatie van het publiek kan leren. seconden Bloomberg, beschreef Meta-CEO Mark Zuckerberg als “te griezelig en manipulatief” in een gesprek met een Insider-verslaggever. Dat vertelde hij aan een verslaggever van de Wall Street Journal Trump zal “altijd” president zijn en promootte de antisemitische samenzweringstheorie dat het “niet onwaarschijnlijk” was dat joden de economie beheersten.
Dit is niet de eerste keer dat een chatbot in de problemen zit. In juli, Google heeft een ingenieur ontslagen om te zeggen dat hun chatbot LaMDA reageerde. LaMDA is waarschijnlijk niet gevoelig, maar wel mooi racistisch en seksistisch — twee ongetwijfeld menselijke kenmerken. En in 2016 ging een Microsoft-chatbot genaamd Tay offline binnen 48 uur nadat hij Adolf Hitler begon te prijzen. (Het blijkt dat de wet van Godwin, het ideologische idee dat als een discussie maar lang genoeg op internet duurt, iemand vergeleken wordt met Hitler, ook van toepassing is op chatbots.)
Misschien heeft BlenderBot 3 in één ding gelijk: Mark Zuckerberg is niet te vertrouwen.