Sztuczna inteligencja (AI), w tym chatboty, takie jak Siri i Alexa, są w coraz większym stopniu zdolne do wykonywania złożonych zadań. Czasami jednak dają wyniki wyraźnie fałszywe — jest to zjawisko często nazywane „halucynacjami”. Oznacza to, że sztuczna inteligencja z pewnością przedstawia informacje jako fakt, nawet jeśli nie mają one oparcia w rzeczywistości.

Problem rzeczywistej dokładności

Halucynacje AI to nie tylko błędy; jest to podstawowa cecha wielu nowoczesnych systemów. Duże modele językowe (LLM) są szkolone tak, aby przewidywać następne słowo w sekwencji, zamiast koniecznie sprawdzać prawdę. W rezultacie LLM może z pewnością wymyślać szczegóły, wymyślać źródła lub zniekształcać informacje, jeśli pomoże to uczynić wnioski bardziej spójnymi.

Różni się to od psychozy czy schizofrenii, chorób ludzkich, w których dana osoba traci kontakt z rzeczywistością. Halucynacje AI są błędem w przetwarzaniu mechanicznym, a nie kryzysem zdrowia psychicznego. Efekt jest jednak podobny: maszyna przedstawia kłamstwa jako prawdę.

Dlaczego to jest ważne?

Rozprzestrzenianie się sztucznej inteligencji w kluczowych dziedzinach – takich jak opieka zdrowotna, finanse i badania prawne – sprawia, że ​​halucynacje są niebezpieczne. Wyobraź sobie chatbota medycznego opartego na sztucznej inteligencji, który stawia błędną diagnozę lub sztuczną inteligencję finansową, która zaleca oszukańczą inwestycję. Problemem nie jest tylko niedogodność; jest w potencjalnej krzywdzie.

Kontekst jest tutaj kluczowy. Osoby LLM słabo rozumieją niuanse i często nie potrafią odróżnić ustalonej wiedzy od twierdzeń spekulacyjnych. Potrafią w przekonujący sposób omówić egzoplanety lub Układ Słoneczny z fikcyjnymi szczegółami, co utrudnia użytkownikom odróżnienie faktów od fikcji.

Rola informatyki i psychologii

Naukowcy z informatyki pracują nad rozwiązaniami, w tym uczeniem się przez wzmacnianie w oparciu o opinie ludzi i metodami łączenia reakcji sztucznej inteligencji z testowalnymi danymi. Istnieje jednak głębszy problem. Nasze zrozumienie ludzkiej inteligencji, studiowane w psychologii, może być konieczne do stworzenia naprawdę niezawodnej sztucznej inteligencji. Maszyny uczą się na podstawie danych, ale brakuje im zdrowego rozsądku, który ludzie uważają za coś oczywistego.

Wielki obraz

Halucynacje AI uwydatniają zasadniczą sprzeczność: wymagamy od AI „inteligencji”, jednocześnie oczekując, że będzie ona nieskazitelnie dokładna. Rzeczywistość jest taka, że ​​sztuczna inteligencja jest potężnym narzędziem, ale nie jest doskonała. Dopóki systemy sztucznej inteligencji nie będą w stanie wiarygodnie odróżnić tego, co rzeczywiste od tego, co nie jest, użytkownicy powinni podchodzić do wyników ze sceptycyzmem.

Długoterminowe konsekwencje halucynacji AI są znaczące: pozostawione bez kontroli podważają zaufanie do technologii i tworzą nowe możliwości dezinformacji.