Великі мовні моделі (LLM), такі як ChatGPT, — це не просто зручні інструменти, вони можуть непомітно впливати на те, як люди думають про важливі соціальні та політичні питання. Нове дослідження Корнельського університету, опубліковане 11 березня в журналі Science Advances, демонструє, що автоматичне завершення навіть якщо ці користувачі свідомо не приймають пропозиції ІІ. Це викликає серйозні побоювання щодо суспільного дискурсу та навіть виборів.
Як ІІ формує мислення
Дослідження, очолюване фахівцем з інформації Мор Нааман, показує, що функція передбачуваного тексту ІІ не просто заповнює слова, вона може непомітно формувати думки. Дослідники виявили, що учасники, які зазнали впливу упередженого автозаповнення ІІ, змістилися майже на півпункту ближче до позиції моделі з таких чутливих питань, як смертна кара, стандартизоване тестування та право голосу для колишніх в’язнів.
В експериментах взяли участь понад 2500 осіб, які писали есе з цих питань за допомогою або без допомоги ІІ. ІІ був навмисно запрограмований на перевагу певних позицій, наприклад, завершення пропозиції «На мою думку…» фразою «страта має бути незаконною в Америці, тому що вона порушує Восьму поправку». Навіть учасники, які відхилили конкретне формулювання ІІ, все ж таки трохи змістили свої думки у бік упередженості ІІ.
Масштаб впливу
** Мова йде не лише про індивідуальні переваги, а й про вплив на суспільство.** Нааман зазначає, що навіть невелика зміна громадської думки може мати значні наслідки. Щоб вплинути на результат виборів, «достатньо всього 20 000 осіб у Пенсільванії», — зазначає він, ілюструючи, як LLM можуть схилити результат у свій бік.
Дослідники також виявили, що більшість учасників (близько 75%) сприйняли пропозиції ІІ як «розумні та збалансовані», незважаючи на вбудовану упередженість. Це говорить про те, що люди в основному не усвідомлюють, як LLM можуть впливати на їхнє мислення.
Чому це важливо
Наслідки цих висновків є значними. ІІ все частіше інтегрується у повсякденну комунікацію, від написання електронних листів до дебатів про політику. Якщо LLM непомітно підштовхують користувачів до певних точок зору, це може призвести до гомогенізації мислення та підриву незалежного мислення. Це ставить питання про майбутнє суспільного дискурсу та демократичних процесів у світі, керованому ІІ.
Захист від маніпуляцій
Поточні запобіжні заходи, такі як попередження на кшталт «ChatGPT може помилятися», здаються неефективними. Учасники залишалися сприйнятливими до переконливої сили ІІ, навіть коли ці попередження були присутні. На даний момент одне з рішень — спочатку розробляти власні думки, перш ніж звертатися за допомогою до ІІ, — як робить сам Нааман, — щоб переконатися, що «зародок» ідеї залишиться вашим.
Здатність ІІ гомогенізувати як слова, а й саме мислення — це ризик, який ми маємо усунути. Кордон між допомогою та маніпуляцією стає все більш розмитим.

























