Is ChatGPT betrouwbaar voor medisch advies?

Steeds meer mensen gebruiken ChatGPT om een diagnose te stellen of advies te vragen over supplementen, voeding of klachten. Dat lijkt handig, maar het is niet zonder risico’s. De wereld is enorm veranderd sinds de komst van ChatGPT eind 2022. Inmiddels gebruiken wekelijks 800 miljoen mensen ChatGPT als steun en toeverlaat (1). Ik zie steeds meer volgers die hier gebruik van maken om vragen over hun gezondheid te stellen. Vroeger kreeg ik soms wel meer dan honderd vragen op een dag, tegenwoordig zijn dat er een stuk minder. Ik vermoed dat veel mensen hun vraag tegenwoordig eerst aan ChatGPT stellen. Dat is op zich heel begrijpelijk, want je krijgt direct antwoord zonder te hoeven wachten. De vraag is wel of je die informatie wel kunt vertrouwen. In dit artikel zoeken we uit hoe betrouwbaar de gezondheidsadviezen van ChatGPT eigenlijk zijn.

Misschien gebruik je ChatGPT zelf dagelijks of heb je er alleen maar van gehoord. Voor de mensen die er nog niet mee bekend zijn: het is een chatbot, wat betekent dat je via een programma op internet kunt praten met een computer. De techniek is er al sinds 2017, maar door de toegenomen rekenkracht worden de antwoorden steeds beter (2, 3, 4). We spreken vaak over ChatGPT omdat dit de bekendste is, maar eigenlijk zijn het gewoon taalmodellen: computerprogramma’s die getraind zijn om tekst te produceren (5). Inmiddels bestaan er hier duizenden varianten van, die mensen vaak op een hoop gooien en een ‘AI’ noemen. AI staat voor artificial intelligence, oftewel kunstmatige intelligentie.

In werkelijkheid zijn de taalmodellen geen echte vorm van kunstmatige intelligentie. De term is dan ook misleidend, want ChatGPT denkt helemaal niet na zoals wij dat doen. Het deelt taal op in stukjes (zogenaamde tokens) en gebruikt een wiskundige truc om te voorspellen wat de volgende tokens in een antwoord zullen zijn (6, 7). Het is dus eigenlijk een razend goede voorspeller. Als ik zeg “Eén, twee, drie, vier. Hoedje van ….”, dan weet jij waarschijnlijk wel welk woord daar moet komen vanuit je geheugen. Zo werken taalmodellen min of meer ook. ChatGPT heeft geleerd van enorme hoeveelheden tekst en kan daardoor logisch ogende zinnen produceren, maar het begrijpt niet echt wat het zegt. Meestal gaat dat goed, maar niet altijd (8).

De voordelen van ChatGPT
ChatGPT is een handige gesprekspartner die dag en nacht voor je klaarstaat en graag met je meedenkt (ook al ‘denkt’ het programma dus niet echt). In plaats van urenlang te googelen krijg je snel antwoord op je vragen en kun je direct doorvragen als iets nog niet duidelijk is. Het systeem helpt je bij onderwerpen waar je zelf weinig vanaf weet, kan met je brainstormen over nieuwe ideeën en legt moeilijke informatie in begrijpelijke taal uit. Dit blijkt ook uit recent onderzoek: ChatGPT is zelfs beter dan artsen in het vertalen van medisch jargon naar gewone mensentaal (9). Voor veel mensen is het daarom een soort slimme vriend geworden die altijd klaarstaat om te helpen met uitleg, vertaling, schrijfwerk of het bedenken van oplossingen. Dit is natuurlijk geweldig, maar het blijft belangrijk om te weten waar de beperkingen liggen.

De beperkingen en risico’s
ChatGPT heeft dus vele voordelen, maar er kleven ook risico’s en nadelen aan. Zeker voor het verkrijgen van antwoorden op gezondheidskwesties kan het risicovol zijn. We zetten de belangrijkste voor je op een rij (10, 11):

  • Onbetrouwbaar bij zeldzame vragen: ChatGPT presteert vooral goed bij algemene kennis waarover veel informatie beschikbaar is. Bij delicate kwesties waar niet of nauwelijks op getraind kon worden, is het een heel ander verhaal. Dan neemt de kans op fouten, hallucinaties (zie hieronder) en misleidende informatie aanzienlijk toe. Volgens een studie ligt de accuraatheid van ChatGPT tussen de 20% en 95%, afhankelijk van de vraag (12).
  • Informatie kan vooringenomen zijn (bias): Antwoorden zijn niet altijd objectief omdat het systeem vooral herhaalt waarop het getraind is (13). Het kan daardoor vooroordelen of eenzijdige standpunten overnemen zonder dat het hier kritisch over kan denken. Het is dus een soort papegaai.
  • Informatie kan verouderd zijn: ChatGPT werkt met een vast kennismoment (ook wel ‘cut-off date’ genoemd), dat meestal 6 maanden tot een jaar in het verleden ligt (14, 15). Alles wat daarna gebeurd is, kent het systeem niet. Zo vertelt ChatGPT zonder zoekopdracht op het internet bijvoorbeeld nog steeds dat Joe Biden de president van Amerika is, terwijl er inmiddels een nieuwe president is gekozen. Bij onderwerpen die snel veranderen, zoals politiek, technologie of medisch nieuws, moet je dus extra opletten.
  • Hallucinatie: ChatGPT wil altijd antwoord geven, ook als ‘hij’ het antwoord niet echt weet. In dat geval kan het systeem informatie of bronnen compleet verzinnen, dit wordt ‘hallucineren’ genoemd (16). Deze verzonnen antwoorden zijn extra gevaarlijk omdat ChatGPT ze heel zelfverzekerd presenteert, waardoor je denkt dat het klopt. Het systeem kan bijvoorbeeld verwijzen naar wetenschappelijke onderzoeken die helemaal niet bestaan, of details verzinnen over gebeurtenissen die nooit hebben plaatsgevonden. Omdat ChatGPT het vaak bij het rechte eind heeft, trap je gemakkelijk in een hallucinatie. Uit recent onderzoek blijkt dat 1 op de 10 antwoorden van ChatGPT op medische vragen misleidend of onvolledig was (17).
  • Kosten besparen: Het geven van een antwoord kost veel rekenkracht en daarmee veel stroom en geld. Bedrijven kiezen daarom vaak voor goedkopere AI-modellen, die minder betrouwbaar zijn dan de duurdere versies (18). Een voorbeeld is de Gemini AI bij Google’s zoekresultaten. Dit is een eenvoudig model dat vaker fouten maakt omdat het te duur zou zijn om hun beste AI voor elke zoekopdracht te gebruiken. Het is dus belangrijk om te weten welk model je gebruikt en hoe betrouwbaar dat is.
  • Niet consistent: Een ander probleem is dat ChatGPT niet consistent is. Het kan verschillende antwoorden geven op dezelfde vraag. Als je bijvoorbeeld dezelfde gezondheidsvraag drie keer stelt, kun je drie verschillende antwoorden krijgen. Ook maakt het veel uit hoe je je vraag formuleert. Een kleine aanpassing in de vraagstelling kan leiden tot een heel ander antwoord. Vraag je bijvoorbeeld “Wat helpt tegen hoofdpijn?” of “Ik heb hoofdpijn, wat kan ik doen?”, dan kunnen de antwoorden behoorlijk verschillen.

Taalmodellen worden steeds beter
De ontwikkeling van AI gaat razendsnel. Toen ChatGPT eind 2022 verscheen met versie 3.5, waren veel mensen al onder de indruk. Toch was versie 4, die een paar maanden later uitkwam, een gigantische sprong vooruit. Deze versie kon veel beter ‘nadenken’, maakte minder fouten en gaf completere antwoorden. De laatste tijd vlakt de vooruitgang duidelijk af. De nieuwste versie (ChatGPT-5) is wel iets betrouwbaarder en verzint minder vaak dingen, maar is niet veel slimmer dan zijn voorganger (19). Onderzoekers wijzen ons erop dat deze systemen hun beperkingen hebben en waarschijnlijk blijven hebben (20).

Geen privacy: gesprekken zijn niet vertrouwelijk
Er is nog een belangrijk risico waar je je bewust van moet zijn, want je gesprekken met ChatGPT zijn niet privé. Sam Altman, directeur van OpenAI (het bedrijf achter ChatGPT), waarschuwde hier pas expliciet voor in een podcast (21). Hij benadrukt dat er geen juridische vertrouwelijkheid bestaat voor gesprekken met ChatGPT, in tegenstelling tot gesprekken met een therapeut, advocaat of arts. Sommige mensen delen hun diepste zielenroerselen met ChatGPT als therapeut of levenscoach, maar privé is het dus allerminst.

Praktische tips als je ChatGPT toch gebruikt
Als je toch ChatGPT gebruikt voor gezondheidsinformatie, zijn er manieren om betere antwoorden te krijgen. Wees zo specifiek mogelijk in je vraag. Geef context en voeg extra details toe die kunnen helpen bij een accuraat antwoord, zoals je leeftijd, geslacht, medische voorgeschiedenis en leefstijl. Je kunt ook de toon aanpassen door te vragen of ChatGPT het antwoord in eenvoudige taal kan uitleggen, bijvoorbeeld op een manier die een kind kan begrijpen. Klik bij het stellen van je vraag op ‘Zoeken op internet’ aan, dan gebruikt het bestaande bronnen. Via Perplexity of Pubmed.ai kun je medische informatie opvragen die direct wordt onderbouwd met links naar bronnen of wetenschappelijke studies. Controleer vervolgens of die bronnen echt bestaan en of ze zeggen wat er wordt beweerd.

Slotwoord
Taalmodellen zoals ChatGPT kunnen een nuttig hulpmiddel zijn om snel antwoorden op vragen te krijgen, maar het is uiterst onverstandig om alle informatie klakkeloos aan te nemen. Gebruik het dus verstandig en vraag om de bronnen, zodat je deze kunt nagaan en controleren. Gebruik ChatGPT vooral als hulpmiddel om informatie beter te begrijpen, niet om belangrijke beslissingen over je gezondheid op te baseren. Het is altijd verstandig om diagnoses over te laten aan professionals, want ChatGPT ziet details gemakkelijk over het hoofd en stuurt je misschien de verkeerde kant uit. De verwachting is dat de betrouwbaarheid van chatbots langzaam zal toenemen, maar voorlopig zijn we nog heel ver verwijderd van een AI die een arts, diëtist of therapeut daadwerkelijk kan vervangen.

Help anderen gezonder te worden en deel dit artikel:

Download nu tijdelijk gratis ons E-book Afvallen

Gelukt! Ga naar je inbox om het E-book te bekijken.