ChatGPT is pas twee maanden oud, maar we hebben de tijd sinds het debuut besteed aan debatteren over hoe krachtig het is echt het is, en hoe we het moeten reguleren.
De kunstmatige intelligentie-chatbot wordt door een aanzienlijk aantal mensen gebruikt help ze met onderzoek(Opent in een nieuw venster); bericht mensen op dating-apps; code schrijven(Opent in een nieuw venster); brainstormen om aan te werken(Opent in een nieuw venster)i maand.
Alleen omdat het nuttig kan zijn, wil nog niet zeggen dat het niet ook schadelijk kan zijn: studenten kunnen het ook gebruiken essays schrijven voor hen, en slechte acteurs kunnen het gebruiken malware maken. Zelfs zonder kwade bedoelingen van gebruikers kan het misleidende informatie genereren, vooringenomenheid weerspiegelen, aanstootgevende inhoud genereren, gevoelige informatie opslaan en, sommige mensen vrezen, ieders kritisch denkvermogen aantasten door overmoed. Dan is er de alomtegenwoordige (zij het enigszins ongegronde) angst dat robots het overnemen.
En ChatGPT kan dit allemaal doen zonder veel (of geen) toezicht van de Amerikaanse overheid.
Het is niet zo dat ChatGPT, of AI-chatbots in het algemeen, inherent slecht zijn, vertelde Nathan E. Sanders, een datawetenschapper verbonden aan het Berkman Klein Center van Harvard University, aan Mashable. “In de ruimte voor democratie zijn er veel geweldige toepassingen en ondersteuning voor hen die onze samenleving zouden helpen”, zei Sanders. Het is niet zo dat AI of ChatGPT niet mogen worden gebruikt, maar we moeten ervoor zorgen dat ze op verantwoorde wijze worden gebruikt. “Het liefst willen we kwetsbare gemeenschappen beschermen. We willen in dit proces de belangen van minderheidsgroepen beschermen, zodat de rijkste en machtigste belangen niet domineren.”
Het reguleren van zoiets als ChatGPT is belangrijk omdat dit type AI onverschilligheid kan tonen voor individuele persoonlijke rechten zoals privacy en systematische vooroordelen op basis van ras, geslacht, etniciteit, leeftijd en andere kan versterken. Ook weten we nog niet waar de risico’s en verantwoordelijkheden kunnen liggen bij het gebruik van de tool.
“We kunnen AI benutten en reguleren om een meer utopische samenleving te creëren, anders riskeren ongecontroleerde en ongereguleerde AI ons een meer dystopische toekomst in te duwen”, schreef de Californische democratische vertegenwoordiger Ted Lieu in een Nieuws uit New York editie van vorige week(Opent in een nieuw venster). Hij presenteerde ook een resolutie aan het Congres die volledig was geschreven door ChatGPT(Opent in een nieuw venster) die de Tweede Kamer opdracht geeft om AI-regulering te ondersteunen. Hij gebruikte de prompt: “U bent congreslid Ted Lieu. Schrijf een uitgebreide resolutie van het congres waarin u in het algemeen steun uitspreekt voor het congres om zich te concentreren op AI.”
Dit alles betekent een nogal onduidelijke toekomst voor regelgeving over AI-chatbots zoals ChatGPT. Sommige sites stellen al regels op de tool. De senator van de staat Massachusetts, Barry Finegold, heeft een wetsvoorstel opgesteld dat bedrijven die AI-chatbots gebruiken, zoals ChatGPT, verplicht om risicobeoordelingen uit te voeren en beveiligingsmaatregelen te implementeren om aan de overheid bekend te maken hoe hun algoritmen werken. Het wetsvoorstel zou ook vereisen dat deze tools hun werk van een watermerk voorzien om plagiaat te voorkomen.
“Dit is zo’n krachtig instrument dat er regels moeten zijn”, zei Finegold tegen Axios(Opent in een nieuw venster).
Alles wat u moet weten over ChatGPT
Mogelijk is de tweet verwijderd
(opent in een nieuw tabblad)
(Opent in een nieuw venster)
Die zijn er al enkele regels over AI(Opent in een nieuw venster) Over het algemeen. Het Witte Huis heeft een “AI-rechtenverklaring(Opent in een nieuw venster)“wat in wezen laat zien hoe beschermingen die al wettelijk zijn, zoals burgerrechten, burgerlijke vrijheden en privacy, worden beïnvloed door AI. Het EEOC maakt gebruik van op AI gebaseerde rekruteringstools. (Opent in een nieuw venster)voor de mogelijkheid dat ze de beschermde klassen zouden kunnen discrimineren. Illinois vereist(Opent in een nieuw venster) dat werkgevers die tijdens het wervingsproces op AI vertrouwen, de overheid toestaan te controleren of de tool raciale vooroordelen heeft. Veel staten, incl Vermont(Opent in een nieuw venster), Alabama(Opent in een nieuw venster)i Illinois(Opent in een nieuw venster)ze hebben commissies die ervoor zorgen dat AI ethisch wordt gebruikt. Colorado heeft een wetsvoorstel aangenomen(Opent in een nieuw venster) die verzekeraars verbiedt AI te gebruiken die gegevens verzamelt die oneerlijk discrimineren op basis van beschermde klassen. En natuurlijk loopt de EU de VS al voor met regelgeving op het gebied van AI: het heeft de Wet Regelgeving Kunstmatige Intelligentie(Opent in een nieuw venster) afgelopen december Geen van deze voorschriften is specifiek voor ChatGPT of andere AI-chatbots.
Hoewel er enkele staatsregels zijn voor AI, is er niets specifieks voor chatbots zoals ChatGPT, noch op staatsniveau, noch op nationaal niveau. Het National Institute of Standards and Technology, onderdeel van het Department of Commerce, heeft een AI-framework gepubliceerd(Opent in een nieuw venster) het zou bedrijven richtlijnen moeten geven voor het gebruiken, ontwerpen of implementeren van AI-systemen, maar het is precies dat: een vrijwillig kader. Er staat geen sanctie op het niet naleven ervan. Vooruitkijkend, de De Federal Trade Commission lijkt nieuwe regels te creëren(Opent in een nieuw venster) voor bedrijven die AI-systemen ontwikkelen en inzetten.
“Gaat de federale overheid op de een of andere manier regels uitvaardigen of wetten aannemen om toezicht te houden op deze dingen? Ik denk dat dat heel, heel, heel onwaarschijnlijk is”, vertelde Dan Schwartz, partner intellectueel eigendom bij Nixon Peabody, aan Mashable. “Het is onwaarschijnlijk dat u binnenkort federale regelgeving zult zien.” Tegen 2023 voorspelt Schwartz dat de regering zal overwegen om het eigendom van wat ChatGPT produceert te reguleren. Als je de tool bijvoorbeeld vraagt om code voor je te bouwen, ben je dan de eigenaar van die code of van OpenAI?
Dit tweede type regulering, op academisch gebied, is waarschijnlijk privaatrechtelijke regulering. Noam Chompsky vergelijkt de bijdragen van ChatGPT aan het onderwijs(Opent in een nieuw venster) als “hightech plagiaat”, en als je op school plagiaat pleegt, riskeer je van school gestuurd te worden. Zo zou ook hier private regulering kunnen werken.
We kunnen een behoorlijk groot probleem tegenkomen als we ChatGPT op nationaal niveau proberen te reguleren: AI-systemen kunnen het wetgevende regelsysteem bestrijden dat ze onder controle zou brengen.
Sanders, de datawetenschapper, legde uit aa stuk voor Nieuws uit New York(Opent in een nieuw venster) dat kunstmatige intelligentie zoals ChatGPT “mensen vervangt in democratische processen, niet door te stemmen, maar door te lobbyen.” Dit komt omdat ChatGPT automatisch opmerkingen kan schrijven en deze kan indienen in regelgevende processen; brieven schrijven om naar lokale kranten te sturen en commentaar geven op nieuwsartikelen en elke dag miljoenen posts op sociale media publiceren.
Sanders vertelt Mashable over een concept genaamd “the Red Queen’s Race” waarin iemand, oorspronkelijk Lewis Caroll’s Alice, tot het uiterste gaat om er niet in te slagen vooruit te komen. Als je AI verdedigende en aanvallende mogelijkheden geeft, kun je volgens Sanders heen en weer worden vergrendeld, vergelijkbaar met een rode koningin-race, en het kan uit de hand lopen.
Sanders vertelde Mashable dat de VS een probleem zouden kunnen tegenkomen: AI-lobbyisten die de wetgeving proberen te beheersen die hen probeert te regeren. “Het lijkt mij dat het waarschijnlijk een verloren strijd wordt voor menselijke wetgevers”, zei hij.
“Mijn observatie zou zijn dat de serieuze wetgeving die met succes is aangenomen om machine learning in het algemeen te reguleren, pijnlijk traag is en onvoldoende om de voortgang in het veld te volgen”, zei Sanders. “En ik denk dat het gemakkelijk is om je voor te stellen dat dit in de toekomst doorgaat.”
We moeten voorzichtig zijn met hoe we het reguleren, zegt Sanders, want je wilt innovatie niet in de kiem smoren. Je zou dus bijvoorbeeld meer obstakels kunnen opwerpen voor mensen die feedback sturen naar hun wetgevers, zoals meer captcha’s. Maar dat zou het voor gewone mensen te moeilijk kunnen maken om deel te nemen aan een democratisch systeem.
“Wat ik denk dat de meest nuttige reactie is, is proberen meer democratische participatie aan te moedigen, om te proberen meer mensen aan te moedigen deel te nemen aan het wetgevingsproces”, zei Sanders. “Aangezien AI uitdagingen voor schaal en alomtegenwoordigheid met zich meebrengt, is het een geldige oplossing om meer mensen bij het proces te betrekken en structuren te creëren die beleidsmakers in staat stellen te luisteren naar en beter te reageren op echte mensen, een geldige oplossing om dit soort schaaldreiging tegen te gaan.”
ChatGPT staat nog in de kinderschoenen en er zijn al veel ethische kwesties waarmee rekening moet worden gehouden bij het gebruik ervan. Het is echter niet onmogelijk om ons een toekomst voor te stellen waarin geavanceerde AI-chatbots ons leven gemakkelijker maken en ons werk verbeteren zonder het risico te lopen dat verkeerde informatie wordt verspreid en het democratische systeem ten onder gaat. Het kan enige tijd duren voordat onze regering enige zinvolle regelgeving in werking stelt. We hebben dit tenslotte gezien(Opent in een nieuw venster) voor spelen