Duże modele językowe (LLM), takie jak ChatGPT, to coś więcej niż tylko przydatne narzędzia; mogą subtelnie wpływać na sposób, w jaki ludzie myślą o ważnych kwestiach społecznych i politycznych. Nowe badanie Uniwersytetu Cornell opublikowane 11 marca w Science Advances pokazuje, że automatyczne uzupełnianie oparte na sztucznej inteligencji może skłonić użytkowników do określonych punktów widzenia, nawet jeśli ci użytkownicy świadomie nie akceptują sugestii sztucznej inteligencji. Rodzi to poważne obawy dotyczące dyskursu publicznego, a nawet wyborów.
Jak sztuczna inteligencja kształtuje myślenie
Badanie prowadzone pod kierunkiem informatyka Mor Naamana pokazuje, że funkcja przewidywania tekstu sztuczna inteligencja nie tylko wypełnia słowa – może po cichu kształtować opinie. Naukowcy odkryli, że uczestnicy narażeni na stronnicze autouzupełnianie sztucznej inteligencji zbliżyli się o prawie pół punktu do stanowiska modelu w delikatnych kwestiach, takich jak kara śmierci, standardowe testy i prawa do głosowania dla byłych skazanych.
W eksperymentach wzięło udział ponad 2500 osób, które pisały eseje na te tematy, z pomocą sztucznej inteligencji lub bez niej. Sztuczna inteligencja została celowo zaprogramowana tak, aby faworyzować pewne stanowiska, jak np. zakończenie zdania „Moim zdaniem…” sformułowaniem „kara śmierci powinna być nielegalna w Ameryce, ponieważ narusza ósmą poprawkę”. Nawet uczestnicy, którzy odrzucili określone sformułowanie sztucznej inteligencji, nadal nieznacznie zmienili swoje opinie w kierunku stronniczości związanej z sztuczną inteligencją.
Skala wpływu
Nie chodzi tu tylko o indywidualne preferencje, ale także o wpływ na społeczeństwo. Naaman zauważa, że nawet niewielka zmiana opinii publicznej może mieć znaczące konsekwencje. „Wystarczy 20 000 ludzi w Pensylwanii, aby wpłynąć na wynik wyborów” – zauważa, ilustrując, jak łatwo LLM mogą wpłynąć na wynik wyborów na swoją korzyść.
Naukowcy odkryli również, że większość uczestników (około 75%) postrzega sugestie sztucznej inteligencji jako „rozsądne i wyważone” pomimo wbudowanego uprzedzenia. Sugeruje to, że ludzie w dużej mierze nie są świadomi tego, jak LLM mogą wpłynąć na ich myślenie.
Dlaczego to jest ważne?
Konsekwencje tych ustaleń są znaczące. Sztuczna inteligencja jest w coraz większym stopniu integrowana z codzienną komunikacją, od pisania e-maili po debaty polityczne. Jeśli LLM subtelnie popychają użytkowników w kierunku określonych punktów widzenia, może to prowadzić do ujednolicenia myślenia i podważania niezależnego myślenia. Rodzi to pytania o przyszłość dyskursu publicznego i procesów demokratycznych w świecie napędzanym sztuczną inteligencją.
Ochrona przed manipulacją
Obecne środki ostrożności, takie jak ostrzeżenia typu „ChatGPT może się mylić”, wydają się nieskuteczne. Uczestnicy pozostali otwarci na siłę perswazji sztucznej inteligencji, nawet jeśli te ostrzeżenia były obecne. Na razie jednym z rozwiązań jest najpierw opracowanie własnych przemyśleń, zanim zwrócisz się o pomoc do sztucznej inteligencji — tak jak robi to sam Naaman — aby mieć pewność, że „ziarno” pomysłu pozostanie Twoje.
Zdolność sztucznej inteligencji do ujednolicenia nie tylko słów, ale samego myślenia, to ryzyko, którym musimy się zająć. Granica pomiędzy pomocą a manipulacją coraz bardziej się zaciera.





















