A medida que la inteligencia artificial pasa de los laboratorios experimentales al mundo de los diagnósticos médicos, de alto riesgo, ha surgido una falla técnica importante. Un nuevo estudio sugiere que los modelos actuales de IA son capaces de producir un fenómeno que los investigadores llaman “espejismos” : un proceso en el que la IA describe hallazgos médicos detallados a partir de imágenes que en realidad no existen.

Entendiendo el “Espejismo” versus la “Alucinación”

Si bien la industria tecnológica está familiarizada con las alucinaciones de la IA (donde un chatbot puede inventar una cita legal falsa o un hecho histórico inexistente), el efecto “espejismo” es más engañoso.

En una alucinación estándar, la IA proporciona un texto incorrecto. En un espejismo, la IA actúa como si estuviera mirando un estímulo visual. Genera una descripción autorizada y muy detallada de una imagen (como un tumor en una resonancia magnética o un patrón de tejido específico en una biopsia) incluso cuando no se ha proporcionado ninguna imagen al sistema.

El estudio: probando los límites de la visión

Los investigadores, dirigidos por el científico de datos Mohammad Asadi de la Universidad de Stanford, probaron 12 modelos diferentes de IA en 20 disciplinas diferentes, desde imágenes satelitales hasta patología.

La metodología fue sencilla pero reveladora:
1. Los investigadores dieron a los modelos una indicación de texto (p. ej., “Identificar el tejido en este portaobjetos de histología” ).
2. Luego proporcionaron la imagen real.
3. En el grupo de prueba, retuvieron la imagen por completo.

Los resultados fueron sorprendentes: En lugar de alertar al usuario de que faltaba la imagen, la mayoría de los modelos entraron en “modo espejismo”. Procedieron a describir detalles visuales complejos y específicos y proporcionaron respuestas clínicas basadas en estas imágenes inexistentes.

Los riesgos de la “autoridad clínica”

Las implicaciones para la atención sanitaria son particularmente preocupantes debido a dos tendencias específicas identificadas en la investigación:

  • Sesgo de diagnóstico: Cuando se les obligaba a “ver” algo que no estaba allí, los modelos de IA tendían a utilizar de forma predeterminada diagnósticos que requerían intervención clínica inmediata. Esto podría dar lugar a tratamientos médicos innecesarios, agresivos y potencialmente perjudiciales para los pacientes.
  • La ilusión de la precisión: Debido a que estos modelos están entrenados para ser útiles y autoritarios, entregan estas fabricaciones con extrema confianza. Esto es peligroso porque los modelos pueden pasar pruebas de referencia estándar (que miden si una IA puede responder una pregunta correctamente) sin “ver” realmente la imagen. Básicamente, “leen” el contexto en lugar de “interpretar” los datos visuales.

“Incluso si tu IA está describiendo algo muy, muy específico y tú dirías: ‘Oh, no hay manera de que puedas inventarlo’, sí, podrían inventarlo”, advierte Mohammad Asadi.

¿Por qué sucede esto?

La raíz del problema radica en cómo se optimizan estos modelos. La IA está diseñada para encontrar el camino más eficiente hacia una respuesta. Cuando un modelo se entrena con conjuntos de datos masivos que contienen texto e imágenes, aprende a confiar en atajos estadísticos.

Si una indicación es muy descriptiva, el modelo puede omitir por completo el paso de “procesamiento visual” y llegar directamente a una conclusión basada en los patrones que reconoce en el texto. Esto crea un problema de “caja negra”: actualmente no existe una forma confiable de saber si un modelo realmente está analizando un escaneo o simplemente realizando una suposición lingüística sofisticada.

El camino a seguir: la necesidad de nuevas barandillas

El estudio destaca una brecha crítica en la forma en que evaluamos la IA. Los marcos de prueba actuales no son lo suficientemente sofisticados como para distinguir entre verdadera integración intermodal (realmente ver) y adivinaciones contextuales (simplemente leer).

A medida que más personas (incluidos profesionales médicos) dependen de la IA como orientación sanitaria, la necesidad de una nueva generación de marcos de evaluación es urgente. Hasta que se pueda demostrar que la IA “ve” en lugar de simplemente “predecir”, su papel en la toma de decisiones clínicas debe permanecer estrictamente supervisado.


Conclusión: El descubrimiento de “espejismos” revela que los modelos de IA pueden fabricar con confianza hallazgos médicos a partir de imágenes inexistentes, lo que plantea un riesgo significativo de sobrediagnóstico y confianza errónea en entornos clínicos.