Les grands modèles de langage (LLM) comme ChatGPT ne sont pas seulement des outils pratiques ; ils peuvent influencer subtilement la façon dont les gens pensent à des questions sociales et politiques importantes. Une nouvelle recherche de l’Université Cornell, publiée le 11 mars dans Science Advances, démontre que l’auto-complétion alimentée par l’IA peut pousser les utilisateurs vers des points de vue spécifiques, même si ces utilisateurs n’acceptent pas consciemment les suggestions de l’IA. Cela a des implications inquiétantes pour le discours public et même pour les élections.
Comment l’IA façonne la pensée
L’étude, dirigée par le spécialiste de l’information Mor Naaman, montre que les fonctionnalités de texte prédictif de l’IA ne se contentent pas de remplir des mots : elles peuvent subtilement façonner les opinions. Les chercheurs ont constaté que les participants exposés à l’auto-complétion biaisée de l’IA se sont rapprochés de près d’un demi-point de la position du modèle sur des sujets sensibles tels que la peine capitale, les tests standardisés et le droit de vote des criminels.
Les expériences ont impliqué plus de 2 500 participants qui ont rédigé des essais sur ces questions avec ou sans l’aide de l’IA. L’IA a été délibérément programmée pour favoriser certaines positions, comme par exemple compléter la phrase « À mon avis… » par « la peine de mort devrait être illégale en Amérique parce qu’elle viole le huitième amendement ». Même les participants qui ont rejeté la formulation spécifique de l’IA ont néanmoins légèrement modifié leurs opinions en se rapprochant légèrement du parti pris de l’IA.
L’ampleur de l’impact
Il ne s’agit pas seulement de préférences individuelles ; c’est une question d’influence sociétale. Naaman souligne que même un petit changement dans l’opinion publique peut avoir des conséquences importantes. Pour modifier une élection serrée, « il suffit de 20 000 personnes en Pennsylvanie », note-t-il, illustrant avec quelle facilité les LLM pourraient influencer les résultats.
Les chercheurs ont également constaté que la majorité des participants (environ 75 %) percevaient les suggestions de l’IA comme « raisonnables et équilibrées », malgré les préjugés inhérents. Cela suggère que les gens ignorent en grande partie comment les LLM peuvent influencer leur réflexion.
Pourquoi c’est important
Les implications de ces résultats sont significatives. L’IA est de plus en plus intégrée dans la communication quotidienne, de la rédaction d’e-mails aux débats politiques. Si les LLM poussent subtilement les utilisateurs vers des points de vue spécifiques, ils pourraient homogénéiser la pensée et éroder le raisonnement indépendant. Cela soulève des questions sur l’avenir du discours public et des processus démocratiques dans un monde axé sur l’IA.
Se protéger contre la manipulation
Les garanties actuelles, telles que les clauses de non-responsabilité telles que « ChatGPT peut commettre des erreurs », semblent inefficaces. Les participants restaient sensibles au pouvoir de persuasion de l’IA même lorsque ces avertissements étaient présents. Pour l’instant, une solution consiste à développer vos propres pensées avant de demander l’aide de l’IA – comme le fait Naaman lui-même – pour vous assurer que la « graine » de l’idée reste la vôtre.
La capacité de l’IA à homogénéiser non seulement les mots mais aussi la pensée elle-même est un risque auquel nous devons faire face. La frontière entre assistance et manipulation devient de plus en plus floue.




















