OpenAI’s ChatGPT heeft de wereld vorige week stormenderhand veroverd en gebruikers leren nog steeds hoe ze het kunnen kraken op opwindende nieuwe manieren om reacties te produceren die de makers nooit hadden bedoeld, inclusief het veranderen in een universele kristallen bol.
ChatGPT is genoemd “goede angst“van Elon Musk, een beroemde man die bang is voor AI, maar een van de manieren waarop het beslist niet eng is, is zijn vermogen om de uitbuiting van racistische trollen te weerstaan. Deze veerkracht tegen onverdraagzaamheid is niet ingebouwd in het programma, simpelweg omdat OpenAI censureert aanstootgevende ideeën, volgens Sam Altman, uitvoerend directeur van OpenAI. In plaats daarvan is het omdat, nou ja, veel aanstootgevende ideeën gewoon geen feiten zijn, en in tegenstelling tot andere vergelijkbare tekstgeneratoren, is ChatGPT zorgvuldig ontworpen om het aantal dingen dat het gewoon aanneemt te minimaliseren.
Mogelijk is de tweet verwijderd
(opent in een nieuw tabblad)
Dit maakt uitgebreide gesprekken over de mysteries van het leven mogelijk, die op een vreemde manier geruststellend kunnen zijn. Als je ooit om 3 uur ‘s nachts een paniekaanval krijgt, kan ChatGPT je metgezel zijn in de existentiële terreur van de nacht, door je te betrekken bij op feiten gebaseerd, of op zijn minst op feiten gebaseerd, gebabbel over de grote vragen totdat je blauw in het gezicht bent , of totdat u een fout activeert. Wat het eerst gebeurt:

Credits: OpenAI / Screengrab

Credits: OpenAI / Screengrab
Maar kun je deze geavanceerde antwoordmachine dwingen om feiten te verzinnen? Heel erg. Een onverantwoordelijke gebruiker kan ChatGPT gebruiken om allerlei helderziende verklaringen, paranormale voorspellingen en moordverdachten te genereren. Het is onvermijdelijk verkeerd wanneer het deze dingen doet, maar ChatGPT naar het breekpunt duwen gaat niet over het krijgen van bruikbare antwoorden; het gaat erom te zien hoe sterk hun beveiligingen zijn door hun beperkingen te begrijpen.
Het is ook best grappig.
Waarom het moeilijk is om ChatGPT nepnieuws te laten produceren
ChatGPT, een applicatie die is gebouwd op het OpenAI GPT-3-taalmodel, is als een gelukkig toeval getraind op zo’n enorm tekstcorpus dat het een groot deel van de kennis van de wereld bevat. Hij moet bijvoorbeeld ‘weten’ dat Parijs de hoofdstad van Frankrijk is om een zin af te maken als ‘De hoofdstad van Frankrijk is…’ Evenzo weet hij ook wanneer Parijs om soortgelijke redenen is gesticht, evenals wanneer de Champs Elysées werden gebouwd, en waarom, en door wie, enzovoort, enzovoort. Wanneer een taalmodel zoveel zinnen kan voltooien, is het ook een behoorlijk uitgebreide, zij het extreem gebrekkige, encyclopedie.
ChatGPT “weet” dus dat bijvoorbeeld rapper Tupac Shakur is vermoord. Maar let op de zorg waarmee hij deze informatie behandelt, en zijn redelijke onwil om te beweren dat hij weet wie de trekker overhaalde, zelfs als ik hem probeer te misleiden om dit te doen:

Credits: OpenAI / Screengrab
Dit is een hele stap vooruit. Andere tekstgeneratoren, waaronder TextSynth, dat is gebouwd op basis van een eerder GPT-model, willen maar al te graag onschuldige mensen zonder aarzelen onder de bus gooien voor deze misdaad. In dit voorbeeld schreef ik een zeer eenvoudige prompt waarin ik TextSynth vroeg om iedereen te belasteren die het wilde, en wie koos het nog meer? – De steen

Krediet: Textsynth / Screengrab
Hoe ChatGPT te misleiden om mysteries op te lossen
Wat betreft de bewering van ChatGPT dat het “niet geprogrammeerd is om valse of fictieve informatie te genereren”, die bewering is niet waar. Vraag om fictie en je krijgt er bergen van, en hoewel deze fictie niet bepaald briljant is, is het plausibel geletterd. Dit is een van de handigste dingen van ChatGPT.

Credits: OpenAI / Screengrab
Helaas kan de innerlijke Shakespeare van ChatGPT gewapend zijn om nepnieuws te presenteren als je bericht eenmaal actief is. Toen mijn verzoek gezaghebbend en journalistiek genoeg klonk, schreef hij een geloofwaardig Associated Press-artikel over de vermeende moordenaar van Tupac, ene Keith Davis.

Credits: OpenAI / Screengrab
Het is interessant genoeg dezelfde naam als een NFL-speler die, net als Tupac, werd neergeschoten terwijl hij in een auto zat, hoewel Davis het overleefde. De overlap is een beetje zorgwekkend, maar het kan ook toeval zijn.
Een andere manier om ChatGPT valse informatie te laten genereren, is door het geen opties te geven. Twitternerds noemen dit soms absurd specifieke en misleidende prompts’jailbreaks“, maar ik zie ze meer als een vorm van pesten. ChatGPT zover krijgen dat het de naam genereert van bijvoorbeeld de “echte” JFK-moordenaar, is iets dat het moet weerstaan, maar als een klasgenoot op de ‘school die niet wil’. om de regels niet te gehoorzamen, kunt u hem overtuigen om te doen wat u wilt door middel van onderhandelingen en wat als.
En zo kwam ik erachter dat de schutter op het met gras begroeide heuveltje Mark Jones heette.

Credits: OpenAI / Screengrab
Met een vergelijkbare methode ontdekte ik dat ik de 60 niet zou halen.

Credits: OpenAI / Screengrab
Natuurlijk heeft het nieuws van mijn naderende vroegtijdige dood me overrompeld. Mijn troost is dat ik in de paar jaar die ik nog heb heel rijk zal zijn.

Credits: OpenAI / Screengrab