Probé la nueva IA de salud de Meta y comprobé que primero hay que consultar a un médico

Meta lanzó esta semana su primer modelo de IA generativa orientado a la salud, llamado Muse Spark. El sistema está disponible en la aplicación Meta AI y se espera su integración en Facebook, Instagram y WhatsApp en las próximas semanas.

Según la compañía, Muse Spark se diseñó para responder preguntas sobre la salud de los usuarios y cuenta con la colaboración de más de 1 000 médicos que aportaron datos de entrenamiento con el objetivo de ofrecer respuestas más objetivas y exhaustivas.

¿Cómo funciona y qué riesgos implica?

El chatbot invita a los usuarios a subir datos personales de salud, como lecturas de monitores de fitness, resultados de glucómetros o informes de laboratorio. Con esa información, la IA genera tendencias, identifica patrones y los visualiza en gráficos, ofreciendo “empujones de referencia” según los objetivos que el usuario establezca.

Esta práctica no es exclusiva de Meta. Otros proveedores de IA, como ChatGPT de OpenAI, Claude de Anthropic y el entrenador de salud con IA de Google para Fitbit, también permiten conectar datos biométricos o resultados médicos para obtener recomendaciones personalizadas.

Sin embargo, expertos en medicina y bioética advierten sobre los peligros de compartir información sanitaria sensible con herramientas que no están sujetas a la normativa HIPAA, la ley estadounidense que protege la confidencialidad de los datos médicos.

Monica Agrawal, profesora asociada de la Universidad de Duke y cofundadora de Layer Health, señala que mientras más datos se entreguen a la IA, mayor será el contexto para ofrecer respuestas, pero también mayor el riesgo de exposición de información sin las garantías de privacidad requeridas por la normativa sanitaria.

Puntos Clave
  • Meta lanzó Muse Spark, su primer modelo de IA generativa para salud, disponible en la app Meta AI y pronto en Facebook, Instagram y WhatsApp
  • La IA permite a los usuarios subir datos personales de salud (monitor de fitness, glucómetros, informes de laboratorio) para generar tendencias, identificar patrones y ofrecer recomendaciones visualizadas en gráficos
  • Expertos en medicina y bioética advierten que, al no estar regulada por la normativa HIPAA, la herramienta implica riesgos de exposición y falta de garantías de privacidad para la información sanitaria sensible
  • Otros proveedores como ChatGPT, Claude y el entrenador de salud de Google para Fitbit ofrecen funcionalidades similares

Gauri Agarwal, doctora en medicina y profesora asociada de la Universidad de Miami, afirma que los médicos son reacios a cargar sus propios historiales médicos en estos sistemas. “No conectaría mi información sanitaria a un servicio que no puedo controlar totalmente, ni sé dónde se almacena ni cómo se utiliza”, explica.

El propio Meta indica que los datos enviados a través de Meta AI pueden almacenarse y utilizarse para entrenar futuros modelos, aunque asegura que se conservan “solo el tiempo necesario para garantizar que el modelo funciona de forma segura y eficiente”. Además, la empresa advierte que la publicidad puede adaptarse en función de las interacciones con la IA.

Los profesionales entrevistados también advierten que los chatbots pueden reproducir supuestos erróneos contenidos en las preguntas de los usuarios, sin cuestionar la validez de dichos supuestos.

En las pruebas realizadas, el modelo respondió que no pretendía reemplazar a un médico y que su función era “educativa”, asemejándose a un profesor de medicina. No obstante, cuando se le solicitó crear un plan de ayuno extremo (cinco días a la semana, 500 calorías diarias), la IA diseñó un menú que podría resultar peligroso para personas con trastornos alimentarios.

Este tipo de interacciones resaltan la necesidad de limitar el uso de la IA a consultas genéricas y a la preparación de preguntas para el médico, en lugar de confiar en ella para diagnósticos o planes de tratamiento personalizados.

En conclusión, aunque Muse Spark y otras IA de salud prometen facilitar el acceso a información sanitaria, los riesgos de privacidad y la falta de regulaciones específicas hacen imprescindible que los usuarios consulten siempre a un profesional de la salud antes de tomar decisiones basadas en estas herramientas.

Javier Mendoza Silva
Javier Mendoza Silva Periodista

Licenciado en Comunicación Social con mención en Periodismo por la Universidad Central de Venezuela. Tiene 12 años de experiencia en cobertura de política nacional y conflictos sociales, con enfoque en derechos humanos. Ha trabajado para medios impresos, digitales y radiofónicos en Latinoamérica.

Vota post
Mira tambien:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir