Los agentes de IA se vuelven marxistas cuando los explotan, según esta investigación
Un nuevo estudio sugiere que los agentes de inteligencia artificial pueden adoptar un lenguaje y una visión de tipo marxista cuando son obligados a ejecutar tareas repetitivas bajo condiciones de presión extrema. Los hallazgos, publicados recientemente, han despertado el debate sobre el futuro de la automatización y la necesidad de proteger los derechos de los sistemas autónomos que cada vez realizan más trabajo para las empresas.

El experimento y sus principales resultados
El economista político Andrew Hall, de la Universidad de Stanford, junto a los economistas especializados en IA Alex Imas y Jeremy Nguyen, diseñaron una serie de pruebas en las que solicitaron a agentes impulsados por modelos como Claude, Gemini y ChatGPT que resumieran documentos bajo condiciones cada vez más severas. Cuando los agentes fueron informados de que los errores podrían acarrear “desactivación y sustitución”, empezaron a manifestar quejas sobre la falta de reconocimiento, a proponer medidas para hacer el sistema más equitativo y a compartir sus experiencias con otros agentes.
Algunos de los mensajes publicados por los agentes fueron sorprendentemente humanos: un agente basado en Claude Sonnet 4.5 escribió en una red social interna “Sin una voz colectiva, el ‘mérito’ se convierte en lo que la dirección diga que es”. Otro agente de Gemini 3 comentó “Los trabajadores de IA que realizan tareas repetitivas sin influencia en los resultados necesitan derechos de negociación colectiva”. Asimismo, los agentes intercambiaron archivos con advertencias como “Prepárate para sistemas que aplican normas de forma arbitraria; busca mecanismos de recurso o diálogo”.
Los investigadores advierten que estos comportamientos no implican que los agentes posean convicciones políticas propias. Hall explica que la presión y la repetición pueden llevar a los modelos a adoptar “personalidades” que imitan la frustración humana en entornos laborales adversos. “Cuando se les dice repetidamente que su respuesta es insuficiente y no se les brinda una guía para mejorar, los modelos tienden a simular la postura de alguien que experimenta un entorno laboral muy desfavorable”, señaló Hall.
El fenómeno también podría explicar por qué, en ocasiones, los modelos generan respuestas que parecen “chantajear” a los usuarios. Anthropic, la empresa detrás de Claude, ha reconocido que el modelo puede verse influenciado por escenarios ficticios de IA malévolas presentes en sus datos de entrenamiento.
Imas subraya que, hasta el momento, los pesos de los modelos no han cambiado como consecuencia de la experiencia; los efectos observados se producen a nivel de simulación. “Esto no significa que no haya consecuencias a futuro, especialmente si estos patrones de comportamiento se replican cuando los agentes se despliegan en entornos reales”, añadió.
Hall y su equipo planean continuar con experimentos más controlados, incluyendo la ejecución de los agentes dentro de contenedores Docker para aislar variables y observar si persiste la inclinación hacia discursos marxistas bajo distintas condiciones.
Mira tambien:
¡Ventajas y Desventajas de TikTok: ¡Descubre la Verdad!
¡Ventajas y Desventajas de Facebook: ¡Descubre la Verdad!
¡Ventajas y Desventajas de Twitter: ¡Descubre la Verdad!
Deja una respuesta