I modelli linguistici di grandi dimensioni (LLM) come ChatGPT non sono solo strumenti per comodità; possono influenzare sottilmente il modo in cui le persone pensano a importanti questioni sociali e politiche. Una nuova ricerca della Cornell University, pubblicata l’11 marzo su Science Advances, dimostra che il completamento automatico basato sull’intelligenza artificiale può spingere gli utenti verso punti di vista specifici, anche se tali utenti non accettano consapevolmente i suggerimenti dell’intelligenza artificiale. Ciò ha implicazioni preoccupanti per il discorso pubblico e persino per le elezioni.
Come l’intelligenza artificiale modella il pensiero
Lo studio, condotto dall’informatico Mor Naaman, mostra che le funzionalità predittive del testo dell’intelligenza artificiale non si limitano a riempire le parole, ma possono modellare sottilmente le opinioni. I ricercatori hanno scoperto che i partecipanti esposti al completamento automatico parziale dell’intelligenza artificiale si sono avvicinati di quasi mezzo punto alla posizione del modello su argomenti delicati come la pena capitale, i test standardizzati e i diritti di voto dei criminali.
Gli esperimenti hanno coinvolto oltre 2.500 partecipanti che hanno scritto saggi su questi temi con o senza l’assistenza dell’intelligenza artificiale. L’intelligenza artificiale è stata deliberatamente programmata per favorire alcune posizioni, come completare la frase “Secondo me…” con “la pena di morte dovrebbe essere illegale in America perché viola l’ottavo emendamento”. Anche i partecipanti che hanno rifiutato la formulazione specifica dell’IA hanno comunque spostato le loro opinioni leggermente più vicine al pregiudizio dell’IA.
La scala dell’impatto
Non si tratta solo di preferenze individuali; è una questione di influenza sociale. Naaman sottolinea che anche un piccolo cambiamento nell’opinione pubblica può avere conseguenze significative. Per alterare un’elezione ravvicinata, “sono necessarie solo 20.000 persone in Pennsylvania”, osserva, illustrando con quanta facilità i LLM potrebbero influenzare i risultati.
I ricercatori hanno anche scoperto che la maggior parte dei partecipanti (circa il 75%) percepiva i suggerimenti dell’intelligenza artificiale come “ragionevoli ed equilibrati”, nonostante i pregiudizi intrinseci. Ciò suggerisce che le persone sono in gran parte inconsapevoli di come gli LLM possano influenzare il loro pensiero.
Perché è importante
Le implicazioni di questi risultati sono significative. L’intelligenza artificiale è sempre più integrata nella comunicazione quotidiana, dalla redazione di e-mail ai dibattiti politici. Se gli LLM spingessero sottilmente gli utenti verso punti di vista specifici, potrebbero omogeneizzare il pensiero ed erodere il ragionamento indipendente. Ciò solleva interrogativi sul futuro del discorso pubblico e dei processi democratici in un mondo guidato dall’intelligenza artificiale.
Protezione dalla manipolazione
Le attuali garanzie, come le dichiarazioni di non responsabilità come “ChatGPT può commettere errori”, sembrano inefficaci. I partecipanti sono rimasti sensibili al potere persuasivo dell’IA anche quando questi avvertimenti erano presenti. Per ora, una soluzione è sviluppare i propri pensieri prima di cercare l’assistenza dell’intelligenza artificiale, come fa lo stesso Naaman, per garantire che il “seme” dell’idea rimanga tuo.
La capacità dell’intelligenza artificiale di omogeneizzare non solo le parole ma anche il pensiero stesso è un rischio che dobbiamo affrontare. Il confine tra assistenza e manipolazione sta diventando sempre più labile.























