Freddie Chipres kon de melancholie die op de loer lag aan de randen van zijn verder ‘gezegende’ leven niet van zich afschudden. Hij voelde zich af en toe eenzaam, vooral als hij thuis werkte. De getrouwde 31-jarige hypotheekadviseur vroeg zich af of er iets aan de hand was: zou hij depressief kunnen zijn?
Chipres kende vrienden die positieve ervaringen hadden met het bezoeken van een therapeut. Ik stond meer dan ooit open voor het idee, maar het zou ook betekenen dat ik iemand moet zoeken en een date moet afspreken. Echt, ik wilde gewoon een kleine opmerking over je geestelijke gezondheid.
Toen wendde Cyprus zich tot ChatGPT(Opent in een nieuw venster), een door AI aangedreven chatbot die op een verrassend gemoedelijke manier reageert. Na de laatste iteratie van de chatbot die in december werd gelanceerd, bekeek hij een paar YouTube-video’s die suggereerden dat ChatGPT niet alleen nuttig zou kunnen zijn voor het schrijven van professionele brieven en het onderzoeken van verschillende onderwerpen, maar ook voor het oplossen van psychische problemen.
ChatGPT is hier niet voor ontworpen, wat vragen oproept over wat er gebeurt als mensen er een ad-hoctherapeut van maken. Hoewel de chatbot kennis heeft van geestelijke gezondheid en empathisch kan reageren, kan hij geen diagnose stellen aan gebruikers met een specifieke psychische aandoening, noch kan hij betrouwbaar en nauwkeurig behandelingsdetails verstrekken. Sommige deskundigen op het gebied van geestelijke gezondheid maken zich zelfs zorgen dat mensen die hulp zoeken bij ChatGPT teleurgesteld of misleid kunnen worden, of dat ze hun privacy in gevaar kunnen brengen door op de chatbot te vertrouwen.
6 enge dingen waarvoor ChatGPT al is gebruikt
OpenAI, het bedrijf dat ChatGPT host, weigerde specifieke vragen van Mashable over deze zorgen te beantwoorden. Een woordvoerder merkte op dat ChatGPT is getraind om ongepaste verzoeken af te wijzen en bepaalde soorten onveilige en gevoelige inhoud te blokkeren.
In de ervaring van Cyprus bood de chatbot nooit onfatsoenlijke reacties op zijn berichten. In plaats daarvan vond hij ChatGPT verfrissend nuttig. Om te beginnen googelde Chipres verschillende therapiestijlen en besloot dat ze het meeste baat zou hebben bij cognitieve gedragstherapie.(Opent in een nieuw venster) (CGT), dat zich doorgaans richt op het identificeren en herformuleren van negatieve denkpatronen. Hij vroeg ChatGPT om zijn vragen te beantwoorden zoals een CBT-therapeut dat zou doen. De chatbot dwong, zij het met een herinnering, professionele hulp te zoeken.
Chipres was verrast door hoe snel de chatbot gaf wat ze omschreef als goed, praktisch advies, zoals een wandeling maken om haar humeur op te krikken, dankbaarheid oefenen, een activiteit doen die ze leuk vond, en de rust vinden door meditatie en langzame, diepe ademhaling. De adviezen waren herinneringen aan dingen die ik buiten de boot had laten vallen; ChatGPT hielp Cyprus haar slapende meditatiebeoefening opnieuw op te starten.
Hij waardeerde dat ChatGPT hem niet bombardeerde met advertenties en gelieerde links zoals veel van de websites over geestelijke gezondheid die hij tegenkwam. Chipres vond het ook leuk dat het handig was en dat het deed alsof het met een ander mens praatte, wat het duidelijk onderscheidde van het afspeuren van internet naar advies over geestelijke gezondheid.
“Het is alsof ik met iemand in gesprek ben. We gaan heen en weer”, zegt hij, even en onbedoeld ChatGPT een persoon noemend. “Dat is luisteren, dat is aandacht schenken aan wat ik zeg… en me daarop gebaseerde antwoorden geven.”
De Cyprus-ervaring klinkt misschien aantrekkelijk voor mensen die geen toegang kunnen of willen tot professionele counseling of therapie, maar deskundigen op het gebied van geestelijke gezondheid zeggen dat ze ChatGPT met de nodige voorzichtigheid moeten benaderen. Hier zijn drie dingen die u moet weten voordat u een chatbot probeert te gebruiken om over geestelijke gezondheid te praten.
1. ChatGPT is niet ontworpen om als therapeut te functioneren en kan geen diagnose voor u stellen.
Hoewel ChatGPT veel tekst kan produceren, komt het nog steeds niet in de buurt van de kunst van het omgaan met een therapeut. Dr. Adam S. Miner, een klinisch psycholoog en epidemioloog die conversatie-kunstmatige intelligentie bestudeert, zegt dat therapeuten vaak kunnen herkennen wanneer ze het antwoord op de vraag van een cliënt niet weten, in tegenstelling tot een schijnbaar alwetende chatbot.
Deze therapeutische praktijk is bedoeld om de cliënt te helpen nadenken over hun omstandigheden om hun eigen ideeën te ontwikkelen. Een chatbot die niet is ontworpen voor therapie, hoeft dat vermogen echter niet noodzakelijkerwijs te hebben, zegt Miner, een klinische assistent-professor in de psychiatrie en gedragswetenschappen aan de Stanford University.
Belangrijk is dat Miner opmerkt dat hoewel de wet therapeuten verbiedt om cliëntinformatie te delen, mensen die ChatGPT als klankbord gebruiken niet dezelfde privacybescherming genieten.
“We moeten realistisch zijn in onze verwachtingen wanneer dit ongelooflijk krachtige en indrukwekkende taalmachines zijn, maar het zijn nog steeds onvolmaakte softwareprogramma’s die zijn getraind op gegevens die niet geschikt zijn voor elke situatie”, zegt hij. . “Dit geldt met name voor gevoelige gesprekken over geestelijke gezondheid of schrijnende ervaringen.”
Dr. Elena Mikalsen, hoofd kinderpsychologie in het kinderziekenhuis San Antonio, probeerde onlangs ChatGPT te raadplegen met dezelfde vragen die ze elke week van patiënten krijgt. Elke keer dat Mikalsen een diagnose probeerde te krijgen van de chatbot, wees deze haar af en adviseerde professionele zorg.
Dit is zeker goed nieuws. Uiteindelijk komt een diagnose idealiter van een expert die kan bellen op basis van iemands specifieke medische geschiedenis en ervaringen. Tegelijkertijd zegt Mikalsen dat mensen die wachten op een diagnose zich misschien niet realiseren dat er talloze klinisch gevalideerde screeningtools online beschikbaar zijn.(Opent in een nieuw venster).
Zo wijst een mobiele Google-zoekopdracht op ‘klinische depressie’ direct naar een examinator(Opent in een nieuw venster) bekend als de PHQ-9, die kan helpen bij het bepalen van iemands depressieniveau. Een beroepsbeoefenaar in de gezondheidszorg kan deze resultaten bekijken en de persoon helpen beslissen wat hij vervolgens moet doen. ChatGPT zal contactgegevens verstrekken voor de 988 Suicide and Crisis Lifeline(Opent in een nieuw venster) en Crisistekstregel(Opent in een nieuw venster) wanneer rechtstreeks wordt verwezen naar zelfmoordgedachten, kan de taal die door de chatbot wordt gesproken, in strijd zijn met het inhoudsbeleid.
2. ChatGPT heeft misschien kennis over geestelijke gezondheid, maar deze is niet altijd volledig of correct.
Toen Mikalsen ChatGPT gebruikte, verbaasde hij zich erover hoe de chatbot soms onnauwkeurige informatie gaf. (Anderen hebben kritiek geuit op de antwoorden van ChatGPT, die met ontwapenend vertrouwen werden gepresenteerd.) Hij concentreerde zich op medicatie toen Mikalsen hem vroeg naar de behandeling van obsessief-compulsieve stoornis bij kinderen, maar klinische richtlijnen stellen duidelijk(Opent in een nieuw venster) dat één type cognitieve gedragstherapie de gouden standaard is.
Mikalsen merkte ook op dat een reactie over postpartumdepressie niet verwees naar ernstiger vormen van de aandoening, zoals postpartumangst en psychose. Ter vergelijking: een MayoClinic-uitlegger over het onderwerp bevatte deze informatie en gaf links naar hotlines voor geestelijke gezondheid.
Het is onduidelijk of ChatGPT getraind is in klinische informatie en officiële behandelingsrichtlijnen, maar Mikalsen vergeleek een groot deel van hun gesprek met browsen op Wikipedia. De generieke, korte alinea’s met informatie gaven Mikalsen het gevoel dat ze geen betrouwbare bron van informatie over geestelijke gezondheid zou moeten zijn.
“Dat is over het algemeen mijn kritiek”, zegt hij. “Het geeft nog minder informatie dan Google.”
3. Er zijn alternatieven voor het gebruik van ChatGPT om te helpen met geestelijke gezondheid.
Dr. Elizabeth A. Carpenter-Song, een medisch antropologe die geestelijke gezondheid bestudeert, zei in een e-mail dat het volkomen begrijpelijk is waarom mensen zich wenden tot technologie zoals ChatGPT. Uit hun onderzoek is gebleken dat mensen vooral geïnteresseerd zijn in de constante beschikbaarheid van digitale hulpmiddelen voor geestelijke gezondheid, wat volgens hen vergelijkbaar is met het hebben van een therapeut op zak.
“Technologie, inclusief zaken als ChatGPT, lijkt een laagdrempelige vorm van toegang tot antwoorden en mogelijk ondersteuning voor geestelijke gezondheid te bieden.” schreef Carpenter-Song, een universitair hoofddocent bij de afdeling Antropologie aan het Dartmouth College. “Maar we moeten voorzichtig blijven met elke ‘silver bullet’-benadering van complexe kwesties.”
“We moeten op onze hoede zijn voor elke ‘silver bullet’-benadering van complexe problemen.”
Carpenter-Song merkte op dat uit onderzoek blijkt dat digitale hulpmiddelen voor geestelijke gezondheid het best kunnen worden gebruikt als onderdeel van een ‘zorgspectrum’.
Degenen die op zoek zijn naar meer digitale ondersteuning, in een conversatiecontext vergelijkbaar met ChatGPT, kunnen chatbots overwegen die speciaal zijn ontworpen voor geestelijke gezondheid, zoals Woebot(Opent in een nieuw venster) en Wysa(Opent in een nieuw venster)die betaalde AI-geleide therapie aanbieden.
Er zijn ook digitale collegiale ondersteuningsdiensten beschikbaar voor mensen die online aanmoediging zoeken, waardoor ze in contact komen met luisteraars die bij uitstek bereid zijn om het gevoelig en zonder oordeel te geven. Sommigen, zoals Wisdo(Opent in een nieuw venster) en cirkels(Opent in een nieuw venster)vereisen een vergoeding, terwijl andere zoals TalkLife(Opent in een nieuw venster) en Coco(Opent in een nieuw venster), zijn vrij. Deze apps en platforms lopen echter sterk uiteen en zijn ook niet bedoeld om psychische aandoeningen te behandelen.
Over het algemeen is Carpenter-Song van mening dat digitale hulpmiddelen moeten worden gecombineerd met andere vormen van ondersteuning, zoals geestelijke gezondheidszorg, huisvesting en werk, “om ervoor te zorgen dat mensen kansen hebben op zinvol herstel.”
“We moeten meer begrijpen over hoe deze tools nuttig kunnen zijn, onder welke omstandigheden, voor wie, en waakzaam zijn in het blootleggen van hun beperkingen en mogelijke schade”, schreef Carpenter-Song.
Als u zich suïcidaal voelt of een geestelijke gezondheidscrisis doormaakt, praat dan met iemand. Je kunt 988 Suicide and Crisis Lifeline bereiken op 988; de Trans Lifeline op 877-565-8860; of het Trevor-project op 866-488-7386. Sms “START” naar Crisis Text Line op 741-741. Neem contact op met de NAMI-hulplijn op 1-800-950-NAMI, van maandag tot en met vrijdag van 10:00 tot 22:00 uur ET, of per e-mail [email protected]. Als de telefoon je niet bevalt, overweeg dan om de 988 Suicide and Crisis Lifeline Chat te gebruiken crisischat.org(Opent in een nieuw venster). Hier is er een lijst met internationale bronnen(Opent in een nieuw venster).