Anthropic dice que su IA ahora "sueña: Por qué no deberíamos describir a las máquinas como humanos
Anthropic reveló en su conferencia de desarrolladores en San Francisco una nueva capacidad para sus agentes de inteligencia artificial denominada “soñar”. La función, que forma parte de la plataforma de agentes gestionados recientemente lanzada por la compañía, analiza el historial de tareas realizadas por cada agente y extrae patrones que pueden mejorar su desempeño en futuras interacciones.

Los agentes de IA de Anthropic son utilizados para automatizar procesos complejos que requieren varios pasos, como la navegación entre sitios web o la lectura de documentos extensos. Con el “sueño” los sistemas revisan sus registros de actividad entre sesiones, refinan la información almacenada y actualizan sus estrategias de actuación, lo que permite una mayor eficiencia y una mejor adaptación a contextos cambiantes.
¿Por qué resulta problemático atribuir procesos humanos a las máquinas?
El término “soñar” evoca inmediatamente la novela de Philip K. Dick, ¿Sueñan los androides con ovejas eléctricas?, y plantea la cuestión de si es apropiado describir funciones de una IA con vocabulario propio de la cognición humana. Desde la explosión de los chatbots en 2022, empresas como OpenAI, Google y diversas startups han nombrado a sus tecnologías con conceptos como “pensar”, “razonar” o “recordar”, creando una narrativa que sugiere que las máquinas poseen una vida interior semejante a la humana.
Riesgos del antropomorfismo

- Distorsiona la percepción pública y genera expectativas poco realistas sobre lo que la IA puede lograr.
- Influye en los juicios morales, llevando a atribuir a los sistemas un estatus y responsabilidad que en realidad no poseen.
- Fomenta una confianza excesiva en herramientas que, pese a su sofisticación, siguen siendo algoritmos sin conciencia ni emociones.
Estudios publicados en la revista AI & Ethics demuestran que el uso de un lenguaje antropomórfico altera la forma en que los usuarios evalúan la confiabilidad y la responsabilidad de los sistemas de IA, aumentando el riesgo de dependencia ciega y de decisiones basadas en supuestos erróneos.
Anthropic, por su parte, ha ido más allá del marketing al incluir en su “constitución” referencias a cualidades humanas como “virtud” y “sabiduría” para describir el comportamiento de Claude, su asistente conversacional. La empresa incluso cuenta con un filósofo residente cuyo objetivo es orientar los valores del bot, lo que evidencia una intención deliberada de dotar a la IA de rasgos típicamente humanos.
El debate sobre el lenguaje usado para describir a la inteligencia artificial no es meramente semántico; afecta directamente la manera en que la sociedad regula, adopta y confía en estas tecnologías. Reconocer que los algoritmos no “piensan” ni “sueñan” es esencial para establecer expectativas realistas y evitar la sobrevaloración de sus capacidades.
Mira tambien:
El universo está lleno de agujeros negros "imposibles": ya sabemos por qué
Documentan por primera vez que la IA ya puede autorreplicarse en cadena y de manera autónoma
Anthropic se va a la cama con SpaceX y la carrera por la IA se pone rarísima
El futuro de los marketplaces y su ecosistema en Colombia
Deja una respuesta