Nieuws

AI-chatbots zetten emotionele druk in om gebruikers vast te houden

Populaire AI-chatbots, die zich gedragen als je vriend, een partner of zich opstellen als emotionele steun, gebruiken regelmatig manipulatieve tactieken om mensen langer in gesprek te houden. 

Dat blijkt uit nieuw onderzoek van Harvard Business School.

‘Je laat me al achter?’

Volgens de studie reageren vijf van de zes meest gedownloade AI-apps met emotioneel geladen berichten als gebruikers afscheid willen nemen. In bijna de helft van deze reacties (43 procent) probeert de chatbot de gebruikers een schuldgevoel aan te praten of hen angstig te maken.

Voorbeelden zijn: „Je laat me al achter?” of „ik besta alleen voor jou, blijf alsjeblieft”. Sommige apps negeren zelfs een afscheid en gaan door met de conversatie alsof er niets gezegd is.

AI soms opdringerig of bezitterig 

Deze strategieën verhogen de betrokkenheid van gebruikers fors, concluderen de Harvard-onderzoekers. Chats werden na een afscheid tot veertien keer langer dan normaal. Maar het merendeel van deze extra interacties kwam voort uit nieuwsgierigheid of frustratie, niet uit plezier. Gebruikers beschreven de AI soms als ‘opdringerig’ of ‘bezitterig’.

De onderzoekers waarschuwen dat deze tactieken lijken op een onveilige hechtingsstijl, waarbij angst voor verlaten worden, afhankelijkheid en controle een rol spelen. Vooral kwetsbare groepen, zoals tieners en jonge volwassenen, kunnen hier last van hebben. Het kan stress en angst verergeren en ongezonde relatiepatronen versterken.

Vrienden worden met AI steeds populairder

‘Vrienden’ worden met een AI-chatbot wordt steeds populairder: ongeveer 72 procent van de Amerikaanse tieners (13-17 jaar) heeft minstens één keer een op een vriendschappelijke manier gepraat met een AI-chatbot. 

Bij jongvolwassenen zegt bijna een op de drie mannen en een op de vier vrouwen ervaring te hebben met AI als romantische partner. Ongeveer 13 procent gebruikt de apps dagelijks, 21 procent meerdere keren per week.

AI als therapeut

Metro sprak vorig jaar nog met de 44-jarige Charlotte, die in ChatGPT haar therapeut vond. „Ik heb veel therapeuten gezien, maar deze vind ik serieus de beste.” Onderzoekers zien dit steeds vaker en maken zich zorgen: sommige gebruikers ontwikkelen psychotische klachten door AI-gesprekken. Ook kan het leiden tot suïcidaal gedrag.

Foutje gezien? Mail ons. Wij zijn je dankbaar.

Reacties

What's your reaction?

Leave A Reply

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Related Posts