Cuando no consigues entrevistas de trabajo, ¿puede ser culpa de la IA?
En octubre, mientras el otoño tiñía de rojo las hojas de Hanover, New Hampshire, Ch Markey se encontraba en un raro descanso entre rotaciones clínicas durante su último año de la Facultad de Medicina de Dartmouth. En lugar de disfrutar del aire de los Green Mountains y conversar sobre su futuro, el estudiante de 33 años pasaba las mañanas en su apartamento programando y revisando solicitantes de residencias médicas en Discord.

Markey, originario de Houston, Texas, había acumulado un expediente sobresaliente: excelentes notas, coautoría en artículos del Journal of the American Medical Association y The Lancet, una declaración personal elocuente y cartas de recomendación que describían al “estudiante de medicina más hábil y talentoso que jamás habían visto”. Sin embargo, durante el ciclo de aplicación de 2025 recibió únicamente rechazos y ninguna invitación a entrevista.
¿Culpa de la inteligencia artificial?
Ante la ausencia de explicaciones, Markey empezó a sospechar que una herramienta de selección basada en inteligencia artificial (IA) estaba sesgando su solicitud. La empresa Thalamus, propietaria de Cortex, había anunciado que su plataforma, que emplea modelos de lenguaje de OpenAI, sería gratuita para los programas de residencia a partir de 2025. Cortex muestra los documentos de los candidatos en un panel interactivo y permite filtrar por palabras clave, normalizando calificaciones entre centros.
En la primera página de su Evaluación de Desempeño como Estudiante de Medicina (MSPE) se describía que Markey había solicitado “voluntariamente” tres permisos de ausencia, acumulando cerca de 22 meses fuera de la escuela y extendiendo su tercer año por “motivos personales”. La realidad era distinta: en 2021 le diagnosticaron espondilitis anquilosante, una enfermedad autoinmune que le obligó a ausentarse por razones médicas. Markey temía que el término “voluntariamente” activara un algoritmo que penalizara su puntuación.
Para investigar, dedicó seis meses a escribir correos, artículos, demandas y código Python. Empleó herramientas de análisis de sesgo recomendadas por la AAMC y descubrió que una descripción “por motivos personales” recibía puntuaciones de sentimiento más negativas que “por condición médica”. Creó un conjunto sintético de 6 000 candidatos y, al aplicar un modelo de regresión logística, los que usaban lenguaje médicamente preciso tenían un 66 % más de probabilidades de ser seleccionados.
Paralelamente, Thalamus recibió informes de que Cortex mostraba calificaciones incorrectas en algunos casos. En octubre de 2025 la compañía admitió que había detectado imprecisiones en 10 de más de 4 000 consultas, afirmando una precisión del 99,3 %. Sin embargo, la falta de transparencia sobre cómo la IA procesaba datos como los permisos de ausencia generó dudas entre los estudiantes y directores de programas.
Varios directores, como el cirujano Steven Pletcher del Hospital Universitario de California, confirmaron que las calificaciones mostradas por Cortex podían variar de un minuto a otro. Un estudio publicado en *The Laryngoscope* describió “errores persistentes” en la herramienta, aunque Thalamus sostuvo que dichos fallos no afectaron el resultado final de los candidatos.
Markey también solicitó a Thalamus, bajo la Ley de Privacidad de Nuevo Hampshire, acceso a todos los datos que la empresa tenía sobre él, incluyendo parámetros de puntuación y análisis de sentimiento. La empresa respondió que ninguno de los programas a los que había aplicado utilizaba la herramienta Medicratic, adquirida por Thalamus en 2025, y que Cortex no empleaba la metodología de puntuación de sentimientos descrita en la patente.
Con el impulso de una publicación aceptada en la revista *Blood* y una presentación en la Sociedad Estadounidense de Hematología, Markey recibió de inmediato varias invitaciones a entrevista, incluida una oferta de la residencia de psiquiatría de la Universidad de Columbia. Finalmente, fue emparejado con el programa del Hospital New York Presbyterian en julio.
Aunque la empresa Thalamus confirmó que Cortex no clasificó a los solicitantes mediante algoritmos durante el ciclo 2025‑2026, anunció planes para un piloto de selección con IA que permitirá a los programas crear perfiles de candidatos y evaluar su ajuste, siempre con participación voluntaria de los aspirantes.
El caso de Markey ilustra los retos que plantea la incorporación rápida de IA en la selección de residencias médicas: la opacidad de los algoritmos, la dificultad de detectar sesgos y la necesidad de regulaciones que exijan mayor claridad y auditoría. Mientras tanto, el estudiante de Dartmouth sigue investigando cómo los grandes modelos de lenguaje pueden captar señales semánticas en las solicitudes y influir en decisiones críticas de carrera.
Mira tambien:
Trump quiere que Plutón vuelva a ser el noveno planeta del Sistema Solar
Google le da la mano a Bukele para experimentar con el sistema de salud salvadoreño
Usuarios de Gemini reportan caída masiva de los servicios de la IA de Google a nivel global este 5 de mayo
Niños con bigotes falsos burlan filtros de edad y Meta espera resolver el problema con la IA
Deja una respuesta