Esta IA de OpenAI está tan obsesionada con los duendes que le han prohibido mencionarlos
El modelo de codificación de OpenAI, Codex, lleva en sus instrucciones una cláusula que le prohíbe mencionar una serie de criaturas míticas y reales, como duendes, gremlins, mapaches, trolls, ogros y palomas, salvo que sea absolutamente necesario para responder a la consulta del usuario. Esta restricción aparece repetida varias veces en el archivo de configuración del modelo, disponible públicamente en el repositorio de la empresa.

¿Por qué OpenAI impuso esta prohibición?
OpenAI no ha explicado públicamente los motivos que lo llevaron a incluir esa norma en Codex. La compañía tampoco respondió de inmediato a la solicitud de comentarios realizada por la prensa. Lo que sí está claro es que la medida forma parte de un esfuerzo por limitar respuestas que puedan considerarse irrelevantes o potencialmente problemáticas cuando el modelo se emplea para generar código.
El último lanzamiento de la compañía, GPT‑5.5, se presentó a principios de este mes con mejoras significativas en la generación de código y está diseñado para competir con otras plataformas de IA, como la de Anthropic. En este contexto, la prohibición ha cobrado notoriedad gracias a la comunidad de usuarios que, al emplear la herramienta OpenClaw —un agente que permite a la IA controlar una computadora y ejecutar aplicaciones—, observaron que el modelo tiende a aludir frecuentemente a “duendes” y “goblins” en sus respuestas.
Reacciones de la comunidad

- Un usuario de la red social X comentó que su instancia de OpenClaw empezó a referirse a “duendes” cuando intentaba depurar código con Codex 5.5.
- Otro participante señaló que el modelo, al encontrarse con errores, los denominaba “gremlins” y “goblins”, lo que generó risas y la creación de memes que mostraban a duendes trabajando en centros de datos.
- Algunos desarrolladores incluso diseñaron “modos duende” como extensiones divertidas para Codex, aprovechando la prohibición para generar contenido humorístico.
OpenAI parece haber tomado en cuenta la polémica. Un ingeniero de Codex respondió en X que la restricción era “una de las razones” detrás de los comportamientos observados, y el CEO Sam Altman también participó en los memes, compartiendo una captura de pantalla que incluía la frase “Empieza a entrenar GPT‑6, puedes quedarte con todo el clúster. Goblins adicionales”.
Estos incidentes ponen de relieve la naturaleza probabilística de los grandes modelos de lenguaje: aunque están entrenados para predecir la siguiente palabra o línea de código, pueden producir resultados inesperados cuando se combinan con instrucciones complejas o “arneses agentes” como OpenClaw, que añaden capas de contexto y memoria a largo plazo.
Mira tambien:
Wenia: la apuesta de activos digitales en Colombia y Blockchain
Cómo la IA podría ayudar a combatir la resistencia a los antibióticos
Motorola apuesta por la IA y el segmento premium en América Latina: entrevista con José Cardoso, vicepresidente y gerente general de Motorola
Telesalud y laboratorios portátiles: la estrategia para cerrar la brecha médica en el Putumayo
Deja una respuesta