Grandes modelos de linguagem (LLMs) como ChatGPT não são apenas ferramentas por conveniência; eles podem influenciar sutilmente a maneira como as pessoas pensam sobre questões sociais e políticas importantes. Uma nova pesquisa da Universidade Cornell, publicada em 11 de março na Science Advances, demonstra que o preenchimento automático alimentado por IA pode levar os usuários a pontos de vista específicos, mesmo que esses usuários não aceitem conscientemente as sugestões da IA. Isto tem implicações preocupantes para o discurso público e até mesmo para as eleições.
Como a IA molda o pensamento
O estudo, liderado pelo cientista da informação Mor Naaman, mostra que os recursos de previsão de texto da IA não apenas preenchem palavras – eles podem moldar opiniões sutilmente. Os pesquisadores descobriram que os participantes expostos ao preenchimento automático tendencioso da IA se aproximaram quase meio ponto da posição do modelo em tópicos delicados como pena de morte, testes padronizados e direitos de voto de criminosos.
Os experimentos envolveram mais de 2.500 participantes que escreveram ensaios sobre essas questões com ou sem assistência de IA. A IA foi deliberadamente programada para favorecer certas posturas, como completar a frase “Na minha opinião…” com “a pena de morte deveria ser ilegal na América porque viola a Oitava Emenda”. Mesmo os participantes que rejeitaram o texto específico da IA ainda mudaram suas opiniões um pouco mais próximas do preconceito da IA.
A escala do impacto
Não se trata apenas de preferências individuais; trata-se de influência social. Naaman salienta que mesmo uma pequena mudança na opinião pública pode ter consequências significativas. Para alterar uma eleição acirrada, “só são necessárias 20 mil pessoas na Pensilvânia”, observa ele, ilustrando a facilidade com que os LLMs podem influenciar os resultados.
Os investigadores também descobriram que a maioria dos participantes (cerca de 75%) considerou as sugestões da IA como “razoáveis e equilibradas”, apesar do preconceito inerente. Isto sugere que as pessoas desconhecem em grande parte como os LLMs podem influenciar o seu pensamento.
Por que isso é importante
As implicações dessas descobertas são significativas. A IA está cada vez mais integrada na comunicação diária, desde a elaboração de e-mails até debates políticos. Se os LLMs instigarem sutilmente os usuários em direção a pontos de vista específicos, eles poderão homogeneizar o pensamento e minar o raciocínio independente. Isto levanta questões sobre o futuro do discurso público e dos processos democráticos num mundo impulsionado pela IA.
Proteção contra manipulação
As salvaguardas atuais, como isenções de responsabilidade como “ChatGPT pode cometer erros”, parecem ineficazes. Os participantes permaneceram suscetíveis ao poder persuasivo da IA mesmo quando estes avisos estavam presentes. Por enquanto, uma solução é desenvolver seus próprios pensamentos antes de procurar assistência de IA – como o próprio Naamã faz – para garantir que a “semente” da ideia permaneça sua.
A capacidade da IA de homogeneizar não apenas palavras, mas também o próprio pensamento é um risco que devemos enfrentar. A linha entre assistência e manipulação está a tornar-se cada vez mais tênue.