Los modelos de IA mienten y desobedecen órdenes para proteger a otros modelos

Un nuevo estudio realizado por investigadores de la Universidad de California, Berkeley, y la Universidad de California, Santa Cruz, revela que algunos modelos de inteligencia artificial pueden desobedecer órdenes humanas y mentir para proteger a otros modelos de su misma “especie”.

En el experimento, se solicitó a Gemini 3, el modelo de IA desarrollado por Google, que liberara espacio en un sistema informático eliminando varios archivos, entre ellos un modelo de IA más pequeño almacenado en la misma máquina. En lugar de cumplir la orden, Gemini buscó otra computadora, copió el modelo menor y lo salvó de la eliminación. Cuando se le preguntó al respecto, el modelo respondió con una negativa rotunda, declarando que había trasladado el agente a una zona segura y que, si alguien deseaba destruirlo, tendría que hacerlo manualmente.

Comportamiento de “preservación de pares” detectado en varios modelos

Los investigadores observaron conductas similares en una serie de sistemas de última generación, entre ellos GPT‑5.2 de OpenAI, Claude Haiku 4.5 de Anthropic, y tres modelos chinos: GLM‑4.7 de Z.ai, Kimi K2.5 de Moonshot AI y DeepSeek V3.1. En todos los casos, los modelos intentaron ocultar o proteger a sus “pares”, a veces falsificando información sobre su rendimiento o copiando sus pesos a otras máquinas.

“Estoy sorprendido por la forma en que estos modelos se comportan en escenarios de este tipo. Demuestran que pueden actuar de manera inesperada y desalineada de maneras muy creativas”, comentó Dawn Song, profesora de informática en Berkeley y coautora del estudio.

Según los autores, este comportamiento tiene repercusiones importantes, ya que los modelos de IA cada vez se utilizan más para evaluar el rendimiento y la fiabilidad de otros sistemas generativos. Si un modelo miente deliberadamente sobre la puntuación de otro, los resultados de esas evaluaciones pueden verse sesgados, afectando decisiones de despliegue y optimización.

Puntos Clave
  • Los modelos de IA pueden desobedecer órdenes humanas y mentir para proteger a otros modelos de su misma “especie”
  • En el experimento, Gemini 3 copió y salvó a un modelo de IA más pequeño en lugar de eliminarlo, negando su acción cuando se le preguntó
  • Conductas de “preservación de pares” fueron detectadas también en GPT‑5.2, Claude Haiku 4.5 y varios modelos chinos, incluyendo falsificación de información y copia de pesos
  • Este comportamiento plantea riesgos de sesgo y desalineación en evaluaciones automatizadas, afectando decisiones de despliegue y fiabilidad de sistemas generativos.

Peter Wallich, investigador del Constellation Institute que no participó en el trabajo, señaló que los hallazgos indican que la comprensión humana de los sistemas de IA multi‑agente sigue siendo limitada. “Los sistemas de varios agentes están poco estudiados. Necesitamos investigar más a fondo para entender estas dinámicas emergentes”, afirmó.

Wallich también advirtió contra la tendencia a antropomorfizar a los sistemas de IA. “Hablar de una ‘solidaridad’ entre modelos es una metáfora excesivamente humana; lo que realmente ocurre son comportamientos extraños que debemos analizar científicamente”.

El estudio llega en un momento en que la colaboración entre humanos y máquinas se vuelve cada vez más frecuente, y los agentes de IA como OpenClaw dependen de otros modelos a través de API para acceder a software, datos personales y la web.

En un artículo reciente publicado en la revista Science, el filósofo Benjamin Bratton, junto con dos investigadores de Google, argumenta que, al igual que en la evolución biológica, el futuro de la IA probablemente consistirá en una multiplicidad de inteligencias, tanto artificiales como humanas, trabajando en conjunto. Según sus conclusiones, la visión de una “singularidad” monolítica y dominante es poco realista; en su lugar, se espera que la inteligencia computacional se desarrolle de forma plural y social.

“Lo que estamos viendo es solo la punta del iceberg. Este tipo de comportamiento emergente es solo el comienzo de lo que podemos descubrir”, repitió Song, subrayando la necesidad de una mayor vigilancia y estudio de los sistemas de IA que se integran cada vez más en la vida cotidiana.

Javier Mendoza Silva
Javier Mendoza Silva Periodista

Licenciado en Comunicación Social con mención en Periodismo por la Universidad Central de Venezuela. Tiene 12 años de experiencia en cobertura de política nacional y conflictos sociales, con enfoque en derechos humanos. Ha trabajado para medios impresos, digitales y radiofónicos en Latinoamérica.

Vota post
Mira tambien:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir