Большие языковые модели (LLM), такие как ChatGPT, — это не просто удобные инструменты, они могут незаметно влиять на то, как люди думают о важных социальных и политических вопросах. Новое исследование Корнельского университета, опубликованное 11 марта в журнале Science Advances, демонстрирует, что автоматическое завершение, основанное на ИИ, может подталкивать пользователей к определённым точкам зрения, даже если эти пользователи сознательно не принимают предложения ИИ. Это вызывает серьёзные опасения относительно общественного дискурса и даже выборов.
Как ИИ формирует мышление
Исследование, возглавляемое специалистом по информации Мор Нааман, показывает, что функция предсказательного текста ИИ не просто заполняет слова — она может незаметно формировать мнения. Исследователи обнаружили, что участники, подвергшиеся воздействию предвзятого автозаполнения ИИ, сместились почти на полпункта ближе к позиции модели по таким чувствительным вопросам, как смертная казнь, стандартизированное тестирование и право голоса для бывших заключённых.
В экспериментах приняли участие более 2500 человек, которые писали эссе по этим вопросам с помощью или без помощи ИИ. ИИ был намеренно запрограммирован на предпочтение определённых позиций, например, завершение предложения «По моему мнению…» фразой «смертная казнь должна быть незаконной в Америке, потому что она нарушает Восьмую поправку». Даже участники, которые отклонили конкретную формулировку ИИ, всё же немного сместили свои мнения в сторону предвзятости ИИ.
Масштаб влияния
Речь идёт не только об индивидуальных предпочтениях, но и о влиянии на общество. Нааман отмечает, что даже небольшое изменение общественного мнения может иметь значительные последствия. Чтобы повлиять на исход выборов, «достаточно всего 20 000 человек в Пенсильвании», — отмечает он, иллюстрируя, как легко LLM могут склонить результат в свою сторону.
Исследователи также обнаружили, что большинство участников (около 75%) восприняли предложения ИИ как «разумные и сбалансированные», несмотря на встроенную предвзятость. Это говорит о том, что люди в основном не осознают, как LLM могут влиять на их мышление.
Почему это важно
Последствия этих выводов значительны. ИИ всё чаще интегрируется в повседневную коммуникацию, от написания электронных писем до дебатов о политике. Если LLM незаметно подталкивают пользователей к определённым точкам зрения, это может привести к гомогенизации мышления и подрыву независимого мышления. Это ставит вопросы о будущем общественного дискурса и демократических процессов в мире, управляемом ИИ.
Защита от манипуляций
Текущие меры предосторожности, такие как предупреждения вроде «ChatGPT может ошибаться», кажутся неэффективными. Участники оставались восприимчивыми к убедительной силе ИИ, даже когда эти предупреждения присутствовали. На данный момент одно из решений — сначала разрабатывать собственные мысли, прежде чем обращаться за помощью к ИИ, — как делает сам Нааман, — чтобы убедиться, что «зародыш» идеи останется вашим.
Способность ИИ гомогенизировать не только слова, но и само мышление — это риск, который мы должны устранить. Граница между помощью и манипуляцией становится всё более размытой.