Velké jazykové modely (LLM), jako je ChatGPT, jsou více než jen praktické nástroje, mohou nenápadně ovlivnit způsob, jakým lidé přemýšlejí o důležitých sociálních a politických otázkách. Nový výzkum Cornell University zveřejněný 11. března v Science Advances ukazuje, že automatické dokončování založené na umělé inteligenci může uživatele posouvat k určitým úhlům pohledu, i když tito uživatelé vědomě nepřijímají návrhy AI. To vyvolává vážné obavy ohledně veřejného diskurzu a dokonce voleb.
Jak umělá inteligence utváří myšlení
Studie vedená informačním vědcem Mor Naamanem ukazuje, že prediktivní textová funkce umělé inteligence nevyplňuje pouze slova – dokáže tiše utvářet názory. Výzkumníci zjistili, že účastníci vystavení zaujatému automatickému doplňování umělé inteligence se posunuli téměř o půl bodu blíže k postojům modelu v citlivých otázkách, jako je trest smrti, standardizované testování a hlasovací práva pro bývalé odsouzené.
Experimenty zahrnovaly více než 2 500 lidí, kteří psali eseje o těchto otázkách s pomocí AI nebo bez ní. Umělá inteligence byla záměrně naprogramována tak, aby upřednostňovala určité pozice, například větu „Podle mého názoru…“ ukončila frází „trest smrti by měl být v Americe nezákonný, protože porušuje osmý dodatek“. Dokonce i účastníci, kteří odmítli konkrétní formulaci AI, stále posunuli své názory mírně směrem k zaujatosti AI.
Stupnice vlivu
Nejde jen o individuální preference, ale také o dopad na společnost. Naaman poznamenává, že i malá změna veřejného mínění může mít významné důsledky. „K ovlivnění výsledku voleb je v Pensylvánii potřeba pouze 20 000 lidí,“ poznamenává a ilustruje, jak snadno mohou LLM ovlivnit výsledek ve svůj prospěch.
Výzkumníci také zjistili, že většina účastníků (asi 75 %) vnímala návrhy AI jako „rozumné a vyvážené“ navzdory vestavěné zaujatosti. To naznačuje, že lidé si do značné míry neuvědomují, jak mohou LLM ovlivnit jejich myšlení.
Proč je to důležité?
Důsledky těchto zjištění jsou významné. AI je stále více integrována do každodenní komunikace, od psaní e-mailů po debaty o zásadách. Pokud LLM nenápadně tlačí uživatele k určitým hlediskům, může to vést k homogenizaci myšlení a podkopání nezávislého myšlení. To vyvolává otázky o budoucnosti veřejného diskurzu a demokratických procesů ve světě řízeném umělou inteligencí.
Ochrana proti manipulaci
Současná opatření, jako jsou varování jako „ChatGPT může být chybná“, se zdají být neúčinná. Účastníci zůstali vnímaví k přesvědčovací síle AI, i když byla přítomna tato varování. Prozatím je jedním řešením nejprve rozvinout své vlastní myšlenky před tím, než se o pomoc obrátíte na AI – jak to dělá sám Naaman – abyste zajistili, že „semeno“ nápadu zůstane vaše.
Schopnost umělé inteligence homogenizovat nejen slova, ale i myšlení samotné je rizikem, které musíme řešit. Hranice mezi pomocí a manipulací se stále více stírá.























