Grote taalmodellen (LLM’s) zoals ChatGPT zijn niet alleen hulpmiddelen voor het gemak; ze kunnen op subtiele wijze beïnvloeden hoe mensen denken over belangrijke sociale en politieke kwesties. Nieuw onderzoek van Cornell University, gepubliceerd op 11 maart in Science Advances, toont aan dat AI-aangedreven automatische aanvulling gebruikers in de richting van specifieke standpunten kan duwen, zelfs als die gebruikers de suggesties van de AI niet bewust accepteren. Dit heeft verontrustende gevolgen voor het publieke debat en zelfs voor verkiezingen.

Hoe AI het denken vormgeeft

Het onderzoek, geleid door informatiewetenschapper Mor Naaman, laat zien dat de voorspellende tekstfuncties van AI niet alleen woorden invullen, maar op subtiele wijze meningen kunnen vormen. Onderzoekers ontdekten dat deelnemers die werden blootgesteld aan bevooroordeelde automatische aanvulling van AI bijna een half punt dichter bij het standpunt van het model kwamen over gevoelige onderwerpen als de doodstraf, gestandaardiseerde tests en stemrecht voor misdadigers.

Bij de experimenten waren meer dan 2.500 deelnemers betrokken die met of zonder AI-hulp essays over deze kwesties schreven. De AI was opzettelijk geprogrammeerd om bepaalde standpunten te bevoordelen, zoals het aanvullen van de zin “Naar mijn mening…” met “de doodstraf zou in Amerika illegaal moeten zijn omdat deze in strijd is met het Achtste Amendement.” Zelfs deelnemers die de specifieke formulering van de AI verwierpen, verschoven hun mening nog steeds iets dichter naar de vooringenomenheid van de AI.

De schaal van impact

Dit gaat niet alleen over individuele voorkeuren; het gaat om maatschappelijke invloed. Naäman wijst erop dat zelfs een kleine verschuiving in de publieke opinie aanzienlijke gevolgen kan hebben. Om een ​​krappe verkiezing te veranderen, heb je in Pennsylvania slechts 20.000 mensen nodig, merkt hij op, waarmee hij illustreert hoe gemakkelijk LLM’s de uitkomsten kunnen beïnvloeden.

De onderzoekers ontdekten ook dat de meerderheid van de deelnemers (ongeveer 75%) de suggesties van de AI als ‘redelijk en evenwichtig’ beschouwde, ondanks de ingebouwde vooringenomenheid. Dit suggereert dat mensen zich grotendeels niet bewust zijn van de manier waarop LLM’s hun denken kunnen beïnvloeden.

Waarom dit belangrijk is

De implicaties van deze bevindingen zijn aanzienlijk. AI wordt steeds meer geïntegreerd in de dagelijkse communicatie, van het opstellen van e-mails tot beleidsdebatten. Als LLM’s gebruikers op subtiele wijze in de richting van specifieke standpunten duwen, kunnen ze het denken homogeniseren en onafhankelijke redeneringen uithollen. Dit roept vragen op over de toekomst van het publieke debat en democratische processen in een AI-gedreven wereld.

Bescherming tegen manipulatie

De huidige veiligheidsmaatregelen, zoals disclaimers als “ChatGPT kan fouten maken”, lijken ineffectief. Deelnemers bleven gevoelig voor de overtuigingskracht van de AI, zelfs als deze waarschuwingen aanwezig waren. Voorlopig is één oplossing om je eigen gedachten te ontwikkelen voordat je AI-hulp zoekt – zoals Naäman zelf doet – om ervoor te zorgen dat het ‘zaadje’ van het idee van jou blijft.

Het vermogen van AI om niet alleen woorden, maar ook gedachten zelf te homogeniseren, is een risico dat we moeten aanpakken. De grens tussen hulp en manipulatie wordt steeds vager.