Kun je AI zoals ChatGPT vertrouwen?

04 mei 2025 • 10:00 door Basten de Baan
Kun je AI zoals ChatGPT vertrouwen?

AI-tools worden snel een vast onderdeel van ons dagelijks leven. We gebruiken ze voor het schrijven van teksten, het analyseren van data, het samenvatten van documenten en het beantwoorden van vragen. Maar hoe betrouwbaar is de informatie die je krijgt? En hoe weet je of iets klopt als het zo overtuigend klinkt?


AI lijkt slim, maar denkt niet zoals een mens

Een taalmodel zoals ChatGPT werkt niet zoals een zoekmachine of expert. Het begrijpt niets van de wereld, maar voorspelt welke woorden logisch volgen op elkaar. Dat doet het op basis van de miljarden teksten waarop het is getraind. Het kan een overtuigend antwoord geven op de vraag "Wie is de minister-president van Nederland?", maar kan tegelijkertijd beweren dat Nederland een premier heeft die allang geen functie meer bekleedt.

Het probleem zit niet in de intentie, maar in de techniek. ChatGPT weet niet wat waarheid is, alleen wat waarschijnlijk klinkt. Dat levert indrukwekkende resultaten op, maar ook risico’s.


Wanneer het misgaat

In april 2023 werd bekend dat een advocaat in New York AI gebruikte om een pleidooi op te stellen. ChatGPT had uitspraken van rechters aangehaald die nooit hebben bestaan. De rechter in de zaak was allesbehalve onder de indruk. De advocaat werd berispt voor het aanleveren van verzonnen bronnen, zelfs al had hij er zelf geen kwade bedoelingen mee.

Een ander voorbeeld komt uit Nederland. De Consumentenbond testte begin 2024 de betrouwbaarheid van AI-adviezen over verzekeringen. De resultaten varieerden sterk. Bij eenvoudige vragen was het antwoord meestal bruikbaar, maar zodra het om uitzonderingen in polisvoorwaarden ging, sloeg de AI vaak de plank mis.


Wat zeggen experts?

Volgens een analyse van Stanford HAI (Human-Centered Artificial Intelligence) blijkt dat modellen zoals ChatGPT bij complexe feitelijke vragen in gemiddeld 27 procent van de gevallen onjuiste informatie geven. Bij medische vragen is dat risico zelfs groter, tenzij het systeem specifiek is getraind op medische kennis.

OpenAI erkent dit probleem openlijk. In hun eigen documentatie stellen ze dat "ChatGPT hallucinaties kan vertonen", en dat het dus altijd nodig blijft om zelf informatie te controleren, zeker bij professioneel gebruik.


Hoe herken je twijfelachtige AI-output?

Let op antwoorden zonder duidelijke bronvermelding, met algemeen klinkende formuleringen zoals "onderzoek toont aan" zonder te zeggen welk onderzoek. Let ook op jaartallen die niet kloppen met recente gebeurtenissen. Vraag je af of een antwoord logisch is binnen de context en of het overeenkomt met betrouwbare externe informatie.

Als iets te goed klinkt om waar te zijn, is het dat vaak ook.


Waar ligt de kracht dan wel?

AI is op zijn best als hulp bij het structureren van informatie, het genereren van ideeën en het herschrijven van teksten. Je kunt het zien als een goed geïnformeerde assistent met een matig geheugen. Het kan veel werk uit handen nemen, maar je moet zelf de eindverantwoordelijkheid houden.

Voor taken zoals het herschrijven van een beleidsnotitie in eenvoudig Nederlands, of het samenvatten van een lange tekst, werkt het systeem efficiënt. Maar als het gaat om juridische onderbouwing, medische claims of academisch onderzoek, is dubbelchecken essentieel.


Kritisch denken blijft nodig

AI kan je veel tijd besparen, maar niet het denkwerk uit handen nemen. De overtuigingskracht van een taalmodel is groot. Dat maakt het juist belangrijk om vragen te blijven stellen. Niet alles wat overtuigend klinkt, is ook waar.

Meer over:
Cookies

Deze website gebruikt noodzakelijke cookies voor een correcte werking en analytische cookies (geanonimiseerd) om de statistieken van de website bij te houden. Marketing cookies zijn nodig voor laden van externe content, zoals YouTube-video's of widgets van Sociale Media. Zie ons cookiebeleid voor meer informatie, of om je instellingen later aan te passen.