Nieuws

ChatGPT voor medische vragen? Hierom is dat geen goed idee

Is ChatGPT onze huisarts van de toekomst? Die vraag dook de afgelopen jaren steeds vaker op. Maar een situatie uit de Verenigde Staten laat zien dat ChatGPT nog niet altijd je beste vriend is op dit gebied. Een man ontwikkelde een zeldzame aandoening nadat een AI-bot hem tipte hoe hij zout uit zijn dieet kan schrappen.

In 2023 haalde een door AI aangedreven medische chatbot van Google nog een voldoende voor een zwaar Amerikaans examen voor geneeskundestudenten. Onderzoekers van Google lieten het programma het zogeheten USMLE-examen met meerkeuzevragen afleggen. Med-PaLM slaagde erin een score van 67,6 procent te behalen. Daarmee zou het programma zijn geslaagd. „Med-PaLM presteert bemoedigend, maar blijft inferieur aan artsen”, zeiden de auteurs destijds.

Zeldzame aandoening door ChatGPT

Annals of Internal Medicine, een medisch tijdschrift in de Verenigde Staten, schrijft over een situatie waarin het gebruik van ChatGPT als medisch hulpje tot een zeldzame aandoening leidde. De 60-jarige man had gelezen over negatieve effecten van keukenzout (natriumchloride), waarna hij aan de AI-bot vroeg hoe hij het uit zijn dieet kon schrappen. ChatGPT zei daarop dat chloride vervangen kan worden voor natriumbromide. Dat werd in het begin van de twintigste eeuw nog als kalmeringsmiddel gebruikt.

Na drie maanden natriumbromide te hebben geslikt, meldde de man zich bij de afdeling spoedeisende hulp. Daar beweerde hij dat zijn buurman hem vergiftigde. Hij had onder meer extreme dorst, slapeloosheid en acne. Later bleek de natriumbromide de boosdoener te zijn. De man had daardoor bromisme ontwikkeld, ook wel bromidevergiftiging genoemd.

Onnauwkeurigheden en desinformatie

„Deze casus laat zien hoe het gebruik van kunstmatige intelligentie (AI) potentieel kan bijdragen aan de ontwikkeling van vermijdbare negatieve gezondheidsresultaten”, schrijven de auteurs, die zijn verbonden aan de Universiteit van Washington. Zij hadden weliswaar geen toegang tot de chat van de man, maar toen zij zelf vroegen waarmee chloride vervangen kan worden, kregen ze ook een antwoord waarin bromide werd genoemd. „Hoewel in het antwoord werd gesteld dat context van belang is, werd er geen specifieke gezondheidswaarschuwing gegeven en werd er ook niet gevraagd waarom we dit wilden weten, zoals we aannemen dat een medisch professional dat zou doen.”

Volgens hen is het goed om er rekening mee te houden dat ChatGPT en andere AI-systemen „wetenschappelijke onnauwkeurigheden kunnen genereren, de mogelijkheid missen om resultaten kritisch te bespreken en uiteindelijk de verspreiding van desinformatie kunnen aanwakkeren”. De auteurs zien ChatGPT als een „hulpmiddel is met veel potentieel om een brug te slaan tussen wetenschappers en de niet-academische bevolking”, maar wijzen op het risico dat informatie uit zijn verband wordt getrokken. Het is „zeer onwaarschijnlijk” dat een medisch expert natriumbromide in dat geval zou hebben genoemd. „Zorgverleners moeten er rekening mee houden waar hun patiënten gezondheidsinformatie raadplegen.”

Meer risico’s van ChatGPT

Er zijn wel meer risico’s verbonden aan kletsen met ChatGPT. Zo gebruiken sommige mensen de bot als persoonlijke therapeut. AI reageert heel empathisch, dus vreemd is het niet, maar voor mensen met echte problemen kan het leiden tot een verergering van de mentale gezondheid. Zo was er een man die zijn baan verloor, depressief werd en aan ChatGPT vroeg wat de hoogste bruggen in New York zijn. Een normale therapeut zou dan meteen ingrijpen, ChatGPT geeft een nette lijst.

Een ook seksvragen blijken riskant. Brits onderzoek wijst uit dat veel jongeren ChatGPT gebruiken als een soort seksuele voorlichting. Maar volgens expert is het lastig te weten waar de antwoorden die ChatGPT geeft, vandaan komen. Zo kan het dus gebeuren dat de bot een foutief antwoord geeft, of juist iets adviseert wat helemaal niet wenselijk is.

Blauwalgen en bacteriën: steeds meer zwemlocaties met slechte waterkwaliteit

Zoveel stegen de lonen in juli

Foutje gezien? Mail ons. Wij zijn je dankbaar.

Reacties

What's your reaction?

Leave A Reply

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Related Posts