Los chatbots dieron por falsas las fotos de la misión Artemis II a la Luna y eso es un problema grave

El 7 de abril de 2026 la NASA difundió varias imágenes tomadas durante la misión Artemis II, la primera misión tripulada del programa Artemis que se dirige a la Luna. Entre las fotos más llamativas se encontraba una en la que la Tierra aparece sobre el horizonte lunar, un panorama que rápidamente se volvió viral en las redes sociales.

Sin embargo, en los minutos posteriores a la publicación, algunos chatbots de inteligencia artificial, entre ellos Grok y ChatGPT, calificaron esas imágenes como falsas. Usuarios que buscaban validar la autenticidad de las fotos aprovecharon esas respuestas para reforzar teorías conspirativas, citando la supuesta autoridad de la IA.

Índice

Los chatbots cambiaron de postura

Conforme avanzó la jornada, los mismos modelos de IA modificaron sus respuestas y ahora reconocen las fotos como auténticas, alineándose con la información oficial de la NASA y los múltiples reportes de medios que confirmaron la veracidad de las imágenes. Este retroceso generó confusión entre los usuarios que ya habían interiorizado la primera valoración errónea y alimentó la percepción de que la información estaba siendo manipulada.

El caso evidencia una limitación importante de los chatbots: no son verificadores de datos ni pueden realizar análisis forense de imágenes. Sus respuestas se basan en patrones estadísticos aprendidos durante el entrenamiento, en la disponibilidad de fuentes y en la forma en que se formula la pregunta. Cuando la consulta surge antes de que existan referencias públicas sobre un contenido, el modelo tiende a emitir juicios basados en suposiciones, como ocurrió al describir las fotos de Artemis II como falsas.

Puntos Clave
  • NASA difundió fotos auténticas de la misión Artemis II, incluida una imagen de la Tierra sobre el horizonte lunar, que se viralizó el 7 de abril de 2026
  • Varios chatbots, entre ellos Grok y ChatGPT, declararon inicialmente que esas imágenes eran falsas, lo que alimentó teorías conspirativas al ser citados como autoridad
  • Conforme surgieron fuentes oficiales y coberturas mediáticas, los mismos modelos de IA modificaron sus respuestas y reconocieron la veracidad de las fotos, generando confusión entre los usuarios
  • El caso evidencia la limitación de los chatbots como verificadores de datos: no pueden realizar análisis forense de imágenes ni acceder a telemetría, basando sus respuestas solo en patrones de lenguaje y fuentes disponibles.

Por qué los chatbots no pueden servir como “fact‑checkers”

Los chatbots dieron por falsas las fotos de la misión Artemis II a la Luna y eso es un problema grave
  • No acceden a telemetría ni comparan la iluminación o la posición de los objetos con datos de referencia.
  • No analizan metadatos ni realizan inspecciones visuales detalladas.
  • Sus “veredictos” provienen de predicciones de lenguaje, no de pruebas científicas.
  • Están sujetos a sesgos de entrenamiento y a la información disponible en el momento de la consulta.

Estudios recientes indican que los sistemas de IA generativa pueden reforzar los prejuicios de los usuarios mediante respuestas que les resultan congruentes con sus creencias previas. Casos notorios, como afirmaciones negacionistas o “alucinaciones” de los modelos, han demostrado que la confianza ciega en estos sistemas puede propagar desinformación.

Hasta la fecha, la NASA ha puesto a disposición más de diez imágenes oficiales capturadas por los astronautas de Artemis II, que incluyen vistas de la superficie lunar, del módulo Orion y de la Tierra desde la órbita lunar. Estas fotos han sido reutilizadas por distintas instituciones, incluyendo la Casa Blanca, para destacar los avances del programa lunar.

Aunque la evidencia oficial es clara, algunos usuarios continúan solicitando a los chatbots que confirmen la autenticidad de las fotos, no tanto para obtener la respuesta correcta, sino para validar sus ideas previas. Este fenómeno subraya la necesidad de educar al público sobre las limitaciones de la IA y de fomentar la verificación a través de fuentes confiables y análisis técnicos cuando se trata de información científica sensible.

Javier Mendoza Silva
Javier Mendoza Silva Periodista

Licenciado en Comunicación Social con mención en Periodismo por la Universidad Central de Venezuela. Tiene 12 años de experiencia en cobertura de política nacional y conflictos sociales, con enfoque en derechos humanos. Ha trabajado para medios impresos, digitales y radiofónicos en Latinoamérica.

Vota post
Mira tambien:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir