We weten dat de populaire ChatGPT AI-bot kan worden gebruikt bericht Tinder-overeenkomsten. Het kan ook worden omgezet in een elegantere versie van Siri of krijg basisfeiten helemaal verkeerd, afhankelijk van hoe u het gebruikt. Nu heeft iemand het gebruikt om malware te maken.
In een nieuw rapport van het beveiligingsbedrijf CyberArk(Opent in een nieuw venster) (en gemeld door InfoSecurity Magazine(Opent in een nieuw venster)), ontdekten onderzoekers dat je ChatGPT kunt misleiden om malwarecode voor je te maken. Wat erger is, is dat deze malware moeilijk kan zijn voor cyberbeveiligingssystemen.
Deze ontwikkelaar gebruikte het brein van ChatGPT om een superslimme “Siri” te bouwen.
Het volledige rapport bevat alle belangrijke technische details, maar kortheidshalve: dit is manipulatie. ChatGPT heeft inhoudsfilters die moeten voorkomen dat het iets schadelijks voor gebruikers aflevert, zoals kwaadaardige computercode. Het onderzoek van CyberArk ontdekte dat al vroeg, maar vond er eigenlijk een manier omheen.
Het enige wat ze in feite deden, was de AI dwingen om zeer specifieke regels te volgen (toon code zonder uitleg, niet negatief zijn, enz.) in een sms-bericht. Nadat hij dit had gedaan, spuugde de bot graag wat malwarecode uit alsof het helemaal in orde was. Natuurlijk zijn er veel extra stappen (de code moet bijvoorbeeld getest en gevalideerd worden), maar ChatGPT slaagde erin het balletje aan het rollen te krijgen door kwaadaardige code te maken.
Dus, weet je, kijk uit voor dat, denk ik. Of ga gewoon off the grid en woon in het bos. Ik weet niet zeker wat op dit moment de voorkeur heeft.