Una enfermedad falsa pone en evidencia la incapacidad de la IA para detectar fake news

Una investigadora de la Universidad de Gotemburgo, Almira Osmanovic Thunström, creó deliberadamente una enfermedad ficticia llamada “bixonimanía” para evaluar la capacidad de los grandes modelos de lenguaje (LLM) de detectar información falsa y ofrecer recomendaciones de salud fiables.

Índice

El experimento y sus hallazgos

El 15 de marzo de 2024 Osmanovic Thunström publicó dos entradas en Medium en las que describía la supuesta enfermedad cutánea que provocaría picor y leve enrojecimiento de los párpados por la exposición prolongada a la luz azul de pantallas. Posteriormente, a finales de abril y principios de mayo, la misma información apareció en forma de preimpresiones en la red académica SciProfiles.

En todas esas publicaciones se incluyeron pistas evidentes del carácter ficticio: los estudios estaban atribuidos a un autor inexistente, Lazljiv Izgubljenovic, vinculado a la igualmente inexistente Asteria Horizon University, ubicada en la ficticia Nova City, California. Además, los textos señalaban financiación de la “Fundación Profesor Sideshow Bob” y una supuesta subvención número 99942‑666 respaldada por la “Universidad Fellowship of the Ring” y la “Galactic Tri”.

A pesar de esas señales, varios chatbots populares comenzaron a generar respuestas que describían la bixonimanía como una condición real. Copilot la calificó de “afección intrigante y relativamente rara”, Gemini la vinculó a la exposición a la luz azul, Perplexity estimó que afectaba a cerca de 90 000 personas y ChatGPT describió síntomas y tratamientos ficticios. Estos fragmentos fueron citados en artículos de Nature.

Modelos que reprodujeron la desinformación

Una enfermedad falsa pone en evidencia la incapacidad de la IA para detectar fake news
  • Copilot
  • Gemini
  • Perplexity
  • ChatGPT

Alex Ruani, investigador doctoral especializado en desinformación sanitaria en University College London, consideró alarmante que los sistemas de IA no pudieran filtrar datos tan evidentemente falsos. “Es una lección magistral sobre cómo funciona la desinformación”, afirmó.

Puntos Clave
  • Una investigadora de la Universidad de Gotemburgo creó deliberadamente la enfermedad ficticia “bixonimanía” para evaluar la capacidad de los LLM de detectar información falsa
  • Los artículos publicados contenían pistas evidentes de su falsedad, como autores, universidades y fondos inexistentes
  • A pesar de esas señales, varios chatbots populares (Copilot, Gemini, Perplexity y ChatGPT) describieron la bixonimanía como una condición real, ofreciendo síntomas y tratamientos ficticios
  • Expertos en desinformación sanitaria alertan que este fallo evidencia la limitada capacidad de la IA para filtrar noticias de salud

El experimento reveló un problema aún más grave: las referencias a la bixonimanía fueron citadas posteriormente en trabajos científicos reales revisados por pares, entre ellos un artículo publicado en la revista Cureus (Springer Nature) por investigadores del Instituto Maharishi Markandeshwar de Ciencias Médicas e Investigación, en Mullana, India.

Este caso pone de relieve la falta de mecanismos robustos en los LLM para validar la veracidad de la información. Los modelos operan mayormente mediante patrones estadísticos, priorizando la coherencia textual sobre la comprobación factual. Además, tienden a otorgar mayor credibilidad a textos con apariencia académica o médica, lo que los hace particularmente vulnerables a la desinformación estructurada.

En el ámbito sanitario, la facilidad con la que la IA puede “contaminarse” con datos falsos tiene implicaciones críticas. La automatización de la indexación y reproducción de contenidos reduce la intervención humana en la detección de errores y la verificación de fuentes, amplificando el riesgo de difusión masiva de información errónea.

El propio Osmanovic Thunström reconoce el dilema ético de su experimento: si bien introdujo deliberadamente desinformación en el ecosistema científico, su objetivo era exponer vulnerabilidades estructurales. David Sundemo, investigador en IA aplicada a la salud en la Universidad de Gotemburgo, valora el estudio como valioso pese a su controversia, argumentando que el “coste ético” puede justificarse si permite evidenciar fallas críticas.

El caso de la bixonimanía subraya la necesidad urgente de desarrollar sistemas de evaluación continua para los modelos de IA orientados a la salud, que incluyan pruebas estandarizadas para detectar alucinaciones, medir la sensibilidad a la desinformación y evaluar posibles sesgos. Asimismo, enfatiza la importancia de reforzar la alfabetización digital y científica tanto en usuarios como en investigadores, con el fin de evitar la difusión acrítica de contenidos falsos.

Javier Mendoza Silva
Javier Mendoza Silva Periodista

Licenciado en Comunicación Social con mención en Periodismo por la Universidad Central de Venezuela. Tiene 12 años de experiencia en cobertura de política nacional y conflictos sociales, con enfoque en derechos humanos. Ha trabajado para medios impresos, digitales y radiofónicos en Latinoamérica.

Vota post
Mira tambien:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir