Los modelos de lenguajes grandes (LLM, por sus siglas en inglés) como ChatGPT no son solo herramientas por conveniencia; pueden influir sutilmente en la forma en que las personas piensan sobre temas sociales y políticos importantes. Una nueva investigación de la Universidad de Cornell, publicada el 11 de marzo en Science Advances, demuestra que la función de autocompletado impulsada por IA puede empujar a los usuarios hacia puntos de vista específicos, incluso si esos usuarios no aceptan conscientemente las sugerencias de la IA. Esto tiene implicaciones preocupantes para el discurso público e incluso para las elecciones.

Cómo la IA da forma al pensamiento

El estudio, dirigido por el científico de la información Mor Naaman, muestra que las funciones de texto predictivo de la IA no se limitan a completar palabras, sino que pueden dar forma sutilmente a las opiniones. Los investigadores descubrieron que los participantes expuestos a un autocompletado sesgado de IA se acercaron casi medio punto a la posición del modelo en temas delicados como la pena capital, las pruebas estandarizadas y los derechos de voto de los delincuentes.

En los experimentos participaron más de 2500 participantes que escribieron ensayos sobre estos temas con o sin ayuda de la IA. La IA fue programada deliberadamente para favorecer ciertas posturas, como completar la frase “En mi opinión…” con “la pena de muerte debería ser ilegal en Estados Unidos porque viola la Octava Enmienda”. Incluso los participantes que rechazaron la redacción específica de la IA cambiaron sus opiniones un poco más hacia el sesgo de la IA.

La escala del impacto

Esto no se trata sólo de preferencias individuales; se trata de influencia social. Naamán señala que incluso un pequeño cambio en la opinión pública puede tener consecuencias significativas. Para alterar una elección reñida, “sólo se necesitan 20.000 personas en Pensilvania”, señala, ilustrando con qué facilidad los LLM podrían influir en los resultados.

Los investigadores también encontraron que la mayoría de los participantes (alrededor del 75%) percibieron las sugerencias de la IA como “razonables y equilibradas”, a pesar del sesgo incorporado. Esto sugiere que las personas desconocen en gran medida cómo los LLM pueden influir en su pensamiento.

Por qué esto es importante

Las implicaciones de estos hallazgos son significativas. La IA está cada vez más integrada en la comunicación diaria, desde la redacción de correos electrónicos hasta los debates políticos. Si los LLM empujan sutilmente a los usuarios hacia puntos de vista específicos, podrían homogeneizar el pensamiento y erosionar el razonamiento independiente. Esto plantea interrogantes sobre el futuro del discurso público y los procesos democráticos en un mundo impulsado por la IA.

Protección contra la manipulación

Las salvaguardias actuales, como advertencias como “ChatGPT puede cometer errores”, parecen ineficaces. Los participantes siguieron siendo susceptibles al poder de persuasión de la IA incluso cuando estas advertencias estaban presentes. Por ahora, una solución es desarrollar sus propios pensamientos antes de buscar ayuda de la IA (como lo hace el propio Naamán) para asegurarse de que la “semilla” de la idea siga siendo suya.

La capacidad de la IA para homogeneizar no sólo las palabras sino también el propio pensamiento es un riesgo que debemos abordar. La línea entre asistencia y manipulación es cada vez más borrosa.