Artificiële intelligentie (AI) -systemen, waaronder chatbots zoals Siri en Alexa, zijn steeds beter in staat complexe taken uit te voeren. Soms genereren ze echter resultaten die aantoonbaar vals zijn – een fenomeen dat vaak ‘hallucinatie’ wordt genoemd. Dit betekent dat een AI informatie vol vertrouwen als feit presenteert, terwijl deze niet op de werkelijkheid is gebaseerd.

Het probleem van feitelijke nauwkeurigheid

AI-hallucinaties zijn niet alleen maar fouten; ze zijn van fundamenteel belang voor hoeveel huidige systemen werken. Grote taalmodellen (LLM’s) zijn getraind om het volgende woord in een reeks te voorspellen, niet noodzakelijkerwijs om de waarheid te verifiëren. Als gevolg hiervan kan een LLM met vertrouwen details verzinnen, bronnen verzinnen of informatie verkeerd voorstellen als de uitvoer daardoor coherenter klinkt.

Dit verschilt van psychose of schizofrenie, menselijke omstandigheden waarbij iemand het contact met de werkelijkheid verliest. AI-hallucinaties zijn een mechanisch falen van de gegevensverwerking, geen crisis in de geestelijke gezondheidszorg. Toch is het effect vergelijkbaar: de machine presenteert onwaarheden als waarheid.

Waarom is dit belangrijk?

De opkomst van AI in cruciale toepassingen – zoals de gezondheidszorg, financiën en juridisch onderzoek – maakt hallucinaties gevaarlijk. Stel je voor dat een door AI aangedreven medische chatbot een verkeerde diagnose stelt van een aandoening, of een financiële AI die een frauduleuze investering aanbeveelt. Het probleem is niet alleen ongemak; het is potentiële schade.

Context is hier van cruciaal belang. LLM’s worstelen met nuance en missen vaak het vermogen om onderscheid te maken tussen gevestigde kennis en speculatieve claims. Ze kunnen op overtuigende wijze exoplaneten of het zonnestelsel bespreken met verzonnen details, waardoor het voor gebruikers moeilijk wordt om waarheid van fictie te onderscheiden.

De rol van computerwetenschappen en psychologie

Onderzoekers in de informatica werken aan oplossingen, waaronder versterkend leren met menselijke feedback en methoden om AI-reacties te baseren op verifieerbare gegevens. Er is echter een dieper liggend probleem. Ons begrip van menselijke intelligentie, zoals bestudeerd in de psychologie, kan nodig zijn om echt betrouwbare AI te bouwen. Machines leren van data, maar ze missen de gezond verstand-redenering die mensen als vanzelfsprekend beschouwen.

Het grotere geheel

AI-hallucinaties benadrukken een fundamentele spanning: we eisen dat AI ‘intelligent’ is, terwijl we tegelijkertijd verwachten dat deze met perfecte nauwkeurigheid werkt. De huidige realiteit is dat AI een krachtig hulpmiddel is, maar niet perfect. Totdat AI-systemen op betrouwbare wijze onderscheid kunnen maken tussen wat echt is en wat niet, moeten gebruikers hun resultaten met scepsis benaderen.

De langetermijngevolgen van AI-hallucinaties zijn aanzienlijk: als ze niet worden gecontroleerd, ondermijnen ze het vertrouwen in technologie en creëren ze nieuwe wegen voor desinformatie.