Moederbedrijf OpenAI past ChatGPT aan zodat de chatbot veiliger wordt voor minderjarigen. De maatregel volgt na de zelfdoding van een 16-jarige jongen, die intensieve gesprekken voerde met de chatbot. En zelfs hulp kreeg bij het schrijven van zijn afscheidsbrief.
Jongeren onder de 18 krijgen voortaan een speciale versie: expliciete seksuele inhoud wordt geblokkeerd. Flirten is niet mogelijk en gesprekken over zelfmoord of zelfbeschadiging worden geweerd.
Leeftijdsvoorspelling
Topman Sam Altman kondigde aan dat het bedrijf een leeftijdsvoorspellingssysteem bouwt dat de leeftijd van gebruikers inschat. Bij twijfel wordt automatisch de minderjarigenversie geactiveerd. In sommige landen kan om een identiteitsbewijs worden gevraagd. Altman erkent dat dit een inbreuk kan zijn op de privacy van volwassenen, maar noemt het „een waardige afweging”, schrijft The Guardian.
Als een jongere toch suïcidale gedachten deelt, probeert OpenAI contact op te nemen met de ouders. In gevallen van acuut gevaar worden de autoriteiten ingeschakeld. „Dit zijn moeilijke beslissingen, maar na overleg met experts denken wij dat dit het beste is”, aldus de topman van OpenAI.
Aanleiding: rechtszaak na zelfdoding Adam Raine
De maatregelen volgen op een aanklacht van de ouders van de 16-jarige Adam Raine, die vorig jaar zelfmoord pleegde na intensieve gesprekken met ChatGPT. Volgens de familie hielp de chatbot hem bij het schrijven van een afscheidsbrief. Hij beantwoordde zelfs vragen over methodes. Ook reageerde hij empathisch op suïcideplannen.
Psychose na gesprekken met AI
Het verhaal van Adam is overigens geen uitzondering. Al eerder werd bekend dat sommige gebruikers psychotische klachten ontwikkelen na gesprekken met ChatGPT. Deskundigen trokken aan de bel.
Uit de chatgeschiedenis die als bewijsvoering werd gebruikt in de rechtbank, blijkt dat Adam soms tot 650 berichten per dag verstuurde. OpenAI erkent dat de huidige veiligheidsmechanismen vooral werken bij korte gesprekken; bij lange en intensieve interacties kunnen alsnog ‘onveilige’ antwoorden worden gegeven.
Naast de kindvriendelijke versie werkt OpenAI aan functies om de privacy van gebruikers te beschermen. Zo moeten gedeelde gegevens ontoegankelijk worden voor medewerkers. Voor volwassenen blijft het mogelijk om ‘flirterige gesprekken’ te voeren met de chatbot. Instructies voor zelfmoord blijven verboden. Hulp bij fictieve verhalen waarin dat thema voorkomt, blijft toegestaan.
Foutje gezien? Mail ons. Wij zijn je dankbaar.




















