Model bahasa besar (LLM) seperti ChatGPT bukan hanya alat untuk kenyamanan; hal ini mungkin secara halus memengaruhi cara orang berpikir tentang isu-isu sosial dan politik yang penting. Penelitian baru dari Cornell University, yang diterbitkan pada tanggal 11 Maret di Science Advances, menunjukkan bahwa pelengkapan otomatis yang didukung AI dapat mendorong pengguna ke sudut pandang tertentu, bahkan jika pengguna tersebut tidak secara sadar menerima saran AI. Hal ini mempunyai implikasi yang mengkhawatirkan terhadap wacana publik dan bahkan pemilu.

Bagaimana AI Membentuk Pemikiran

Studi tersebut, yang dipimpin oleh ilmuwan informasi Mor Naaman, menunjukkan bahwa fitur teks prediktif AI tidak hanya mengisi kata-kata—tetapi juga dapat membentuk opini secara halus. Para peneliti menemukan bahwa peserta yang terkena pelengkapan otomatis AI yang bias hampir setengah poin lebih dekat dengan posisi model pada topik sensitif seperti hukuman mati, pengujian standar, dan hak suara penjahat.

Eksperimen tersebut melibatkan lebih dari 2.500 peserta yang menulis esai tentang masalah ini dengan atau tanpa bantuan AI. AI sengaja diprogram untuk mendukung pendirian tertentu, seperti melengkapi kalimat “Dalam pandangan saya…” dengan “hukuman mati seharusnya ilegal di Amerika karena melanggar Amandemen Kedelapan.” Bahkan peserta yang menolak kata-kata spesifik AI masih mengubah pendapat mereka lebih dekat dengan bias AI.

Skala Dampak

Ini bukan hanya tentang preferensi individu; ini tentang pengaruh masyarakat. Naaman menyatakan bahwa perubahan kecil saja dalam opini publik dapat menimbulkan konsekuensi yang signifikan. Untuk mengubah pemilu yang ketat, “Anda hanya memerlukan 20.000 orang di Pennsylvania,” ujarnya, yang menggambarkan betapa mudahnya LLM dapat mempengaruhi hasil pemilu.

Para peneliti juga menemukan bahwa sebagian besar peserta (sekitar 75%) menganggap saran AI sebagai hal yang “masuk akal dan seimbang”, meskipun ada bias yang ada di dalamnya. Hal ini menunjukkan bahwa sebagian besar masyarakat tidak menyadari bagaimana LLM dapat mempengaruhi pemikiran mereka.

Mengapa Ini Penting

Implikasi dari temuan ini sangatlah signifikan. AI semakin terintegrasi ke dalam komunikasi sehari-hari, mulai dari penyusunan email hingga perdebatan kebijakan. Jika LLM secara halus mendorong pengguna ke sudut pandang tertentu, mereka dapat menyeragamkan pemikiran dan mengikis penalaran independen. Hal ini menimbulkan pertanyaan tentang masa depan wacana publik dan proses demokrasi di dunia yang didorong oleh AI.

Melindungi Terhadap Manipulasi

Perlindungan yang ada saat ini, seperti penafian seperti “ChatGPT dapat membuat kesalahan”, tampaknya tidak efektif. Peserta tetap rentan terhadap kekuatan persuasif AI bahkan ketika peringatan ini ada. Untuk saat ini, salah satu solusinya adalah mengembangkan pemikiran Anda sendiri sebelum mencari bantuan AI—seperti yang dilakukan Naaman sendiri—untuk memastikan bahwa “benih” ide tersebut tetap menjadi milik Anda.

Kemampuan AI untuk menghomogenisasi tidak hanya kata-kata tetapi juga pemikiran adalah risiko yang harus kita atasi. Batas antara bantuan dan manipulasi menjadi semakin kabur.