Große Sprachmodelle (LLMs) wie ChatGPT sind nicht nur praktische Werkzeuge; Sie können auf subtile Weise beeinflussen, wie Menschen über wichtige soziale und politische Themen denken. Neue Forschungsergebnisse der Cornell University, veröffentlicht am 11. März in Science Advances, zeigen, dass KI-gestützte automatische Vervollständigung Benutzer zu bestimmten Standpunkten bewegen kann, selbst wenn diese Benutzer die Vorschläge der KI nicht bewusst akzeptieren. Dies hat besorgniserregende Auswirkungen auf den öffentlichen Diskurs und sogar auf Wahlen.

Wie KI das Denken prägt

Die vom Informatiker Mor Naaman geleitete Studie zeigt, dass die prädiktiven Textfunktionen der KI nicht nur Wörter ergänzen, sondern auch Meinungen auf subtile Weise formen können. Die Forscher fanden heraus, dass Teilnehmer, die einer voreingenommenen KI-Autovervollständigung ausgesetzt waren, bei sensiblen Themen wie Todesstrafe, standardisierten Tests und Wahlrechten von Straftätern fast einen halben Punkt näher an die Position des Modells heranrückten.

An den Experimenten nahmen über 2.500 Teilnehmer teil, die entweder mit oder ohne KI-Unterstützung Aufsätze zu diesen Themen schrieben. Die KI wurde bewusst so programmiert, dass sie bestimmte Standpunkte bevorzugt, wie zum Beispiel die Ergänzung des Satzes „Meiner Ansicht nach…“ durch „Die Todesstrafe sollte in Amerika illegal sein, weil sie gegen den achten Verfassungszusatz verstößt.“ Sogar Teilnehmer, die den spezifischen Wortlaut der KI ablehnten, tendierten in ihrer Meinung immer noch etwas näher zur Voreingenommenheit der KI.

Das Ausmaß der Auswirkungen

Hier geht es nicht nur um individuelle Vorlieben; Es geht um gesellschaftlichen Einfluss. Naaman weist darauf hin, dass selbst ein kleiner Wandel in der öffentlichen Meinung erhebliche Folgen haben kann. Um eine knappe Wahl zu ändern, „braucht man in Pennsylvania nur 20.000 Menschen“, stellt er fest und verdeutlicht damit, wie leicht LLMs die Ergebnisse beeinflussen können.

Die Forscher fanden außerdem heraus, dass die Mehrheit der Teilnehmer (rund 75 %) die Vorschläge der KI trotz der eingebauten Voreingenommenheit als „vernünftig und ausgewogen“ empfand. Dies deutet darauf hin, dass den Menschen weitgehend nicht bewusst ist, wie LLMs ihr Denken beeinflussen können.

Warum das wichtig ist

Die Implikationen dieser Erkenntnisse sind erheblich. KI wird zunehmend in die tägliche Kommunikation integriert, vom E-Mail-Entwurf bis hin zu politischen Debatten. Wenn LLMs Benutzer auf subtile Weise zu bestimmten Standpunkten bewegen, könnten sie das Denken homogenisieren und unabhängiges Denken untergraben. Dies wirft Fragen über die Zukunft des öffentlichen Diskurses und demokratischer Prozesse in einer KI-gesteuerten Welt auf.

Schutz vor Manipulation

Aktuelle Schutzmaßnahmen wie Haftungsausschlüsse wie „ChatGPT können Fehler machen“ scheinen unwirksam. Die Teilnehmer blieben auch dann empfänglich für die Überzeugungskraft der KI, wenn diese Warnungen vorhanden waren. Eine Lösung besteht vorerst darin, Ihre eigenen Gedanken zu entwickeln, bevor Sie KI-Unterstützung in Anspruch nehmen – wie Naaman selbst es tut – um sicherzustellen, dass der „Keim“ der Idee Ihnen gehört.

Die Fähigkeit der KI, nicht nur Wörter, sondern auch Gedanken selbst zu homogenisieren, ist ein Risiko, das wir angehen müssen. Die Grenze zwischen Assistenz und Manipulation verschwimmt zunehmend.