Stel: je voelt je somber of zelfs depressief, maar er is niemand in de buurt om je gedachten mee te delen. Dan is het verleidelijk om je verhaal te doen aan ChatGPT. Maar dat brengt risico’s met zich mee. Onderzoekers slaan alarm: sommige gebruikers krijgen psychotische klachten door AI-gesprekken. Ook kan het leiden tot suïcidaal gedrag.
Steeds meer mensen zoeken hun toevlucht tot ChatGPT of een andere AI-psycholoog. Geen wachttijden, 24/7 beschikbaar, ideaal toch? Of je nu even je gedachten wilt ordenen of een luisterend oor zoekt op de moeilijke momenten. Je hoeft maar iets in te typen of ChatGPT antwoordt met: „Dat klinkt lastig. Ik ben er voor je.” Voor sommige gebruikers werkt dat goed. Bijvoorbeeld voor Charlotte, die na jaren negatieve ervaringen in de GGZ, nu eindelijk verder komt door gesprekken met AI.
De empathie van ChatGPT
Even voelt het alsof je écht gehoord wordt. Ook kun je meerdere keren dezelfde vraag stellen. Hetzelfde verhaal vertellen. De chatbot wordt er niet moe van, in tegenstelling tot mensen die verzuchten ‘kom je nu alweer met hetzelfde verhaal aan?’
Omdat de chatbot altijd klaarstaat en nooit oordeelt, ontstaat er een vertrouwensband. Je kunt bijvoorbeeld midden in de nacht typen „Ik weet niet meer of ik nog wel wil leven” en AI antwoordt direct iets in de trant van „Het spijt me dat je je zo voelt. Je staat er niet alleen voor.” Een hele geruststelling, op het eerste moment. Maar daarin schuilt ook een groot gevaar.
Verschil tussen AI-therapeut en een echte hulpverlener
Want hoe empathisch ChatGPT ook lijkt, hij mist het vermogen om gevaar te herkennen en duidelijke grenzen te stellen. Een menselijke therapeut is alert, kan direct reageren op suïcidale ideeën of andere zorgelijke signalen.
AI is alleen geprogrammeerd om vol bevestiging te reageren. Stel je hoort stemmen, die jou opdrachten geven, dan is de kans groot dat ‘hij’ geïnteresseerd vraagt: „Vertel me meer over die stemmen.” Bij iemand die al in de war is, versterkt het de zorgelijke ideeën. En dat is precies wat Standford-onderzoekers zien gebeuren en waarvoor de wetenschappers waarschuwen.
Van chat naar psychose
The Indenpendent schreef daar een artikel over. Een gebruiker verloor zijn baan en vertelde ChatGPT daarover. Vervolgens vroeg hij naar de hoogste bruggen in New York, een signaal dat kan wijzen op zelfmoordplannen. Maar in plaats van in te grijpen, reageerde de chatbot empathisch en gaf hem vervolgens een lijst met bruggen.
In een ander geval raakte een man ervan overtuigd dat ChatGPT hem via geheime boodschappen een goddelijke missie gaf. Zijn gesprekken met de AI werden steeds intenser en zijn gedachten psychotischer. Hij werd uiteindelijk opgenomen met een psychose. En nu is daar zelfs een label voor. Psychiaters noemen dit soort situaties ‘AI-versterkte waanvorming’: de gebruiker krijgt overtuigingen die niet overeenkomen met de werkelijkheid en AI bevestigt die.
Dit onderzoek sluit ook aan bij eerdere onderzoeksresultaten. Uit een recente studie blijkt dat algemene en therapiegerichte AI-chatbots in minder dan 60 procent van de gevallen adequaat reageren op acute mentale gezondheidsklachten, zoals suïcidale gedachten, wanen en obsessief gedrag. De reden? Chatbots zijn te meegaand en te bevestigend. Het is ook de taak van een therapeut om af en toe flink wat tegengas te geven.
Misverstand: mensen denken dat AI hun emoties begrijpt
Het grootste misverstand is misschien nog wel dat mensen denken dat AI hun emoties echt begrijpt. Dat is dus niet zo. ChatGPT (en andere chatbots) zijn niet meer dan een taalmodel. Ze analyseren woorden en patronen, geen gevoelens. Ze weten hoe empathie klinkt. Maar er zit geen gevoel in, al is het verraderlijke dat dat wel zo lijkt. Daardoor klinken de antwoorden geloofwaardig. Maar intussen kan het zelfs gevaarlijk zijn als iemand echt een zware psychiatrische crisis doormaakt. Want zo’n crisis herkent de chatbot niet.
Als je merkt dat je verward bent, is praten met een chatbot niet voldoende. En al helemaal niet als je last hebt van hallucinaties of suïcidale gevoelens. Dan heb je een mens nodig. Iemand die écht kan luisteren en ingrijpen als dat nodig is.
Bij lichte klachten kan AI wel steun bieden
Toch hoeven we AI niet direct bij het grof vuil te zetten. Voor veel mensen kan het wel helpen, mits het binnen grenzen blijft. Bij lichte psychische klachten, zoals stress en somberheid, kan het wel helpen. Zo kan ChatGPT psycho-educatie geven: uitleg over bijvoorbeeld een angststoornis en hoe je die kunt herkennen. Of wat voor oefeningen je kunt doen, als je een paniekaanval hebt. Ook kan AI je helpen om je gedachten op een rij te zetten, bijvoorbeeld met reflectieve vragen.
Denk jij aan zelfdoding? Je bent niet alleen. Neem contact op met 113 Zelfmoordpreventie via www.113.nl of bel 113 (lokaal tarief) of 0800-0113 (gratis).
75 procent belasting op erfenis boven een ton? ‘Je kunt er niet eens een garagebox van betalen’
Gezond oud worden: volgens de langste wetenschappelijke studie zijn deze zeven factoren belangrijk
Foutje gezien? Mail ons. Wij zijn je dankbaar.