in

Por qué OpenAI impuso una regla para evitar mencionar duendes y otras criaturas

Una línea repetida en Codex que evita hablar de duendes provocó memes, aclaraciones del equipo y preguntas sobre el comportamiento de los modelos

Por qué OpenAI impuso una regla para evitar mencionar duendes y otras criaturas

En los archivos de uso para generación de código apareció una curiosa instrucción que llamó la atención de desarrolladores y usuarios: un mandato que evita referirse a una lista de criaturas y animales. El texto, incluido en Codex CLI, advierte de forma explícita que no se debe hablar de duendes, gremlins, mapaches, trolls, ogros, palomas ni otras bestias a menos que sea totalmente relevante para la consulta. Este detalle, aparentemente menor, generó preguntas sobre las razones técnicas y las consecuencias prácticas de introducir una restricción tan concreta en una herramienta de programación.

La revelación se volvió viral tras un hilo en redes, donde usuarios compartieron ejemplos de cómo el asistente terminaba describiendo errores o anomalías con metáforas de criaturas. Además, surgieron respuestas internas del equipo y hasta bromas por parte de la dirección, lo que transformó el hallazgo en un fenómeno tanto técnico como cultural dentro de la comunidad que usa modelos de lenguaje para automatizar tareas.

Qué decía exactamente la norma y por qué sorprendió

El fragmento detectado dentro de Codex CLI incluye una instrucción repetida que prohíbe la mención de ciertos entes ficticios o animales «a menos que sea absolutamente y de forma inequívoca relevante». Para muchos fue inesperado porque no está claro por qué un generador de código necesitaría limitar referencias tan concretas. La presencia de esa línea plantea preguntas sobre la manera en que los equipos de producto traducen riesgos de comportamiento en reglas explícitas dentro de los prompts que alimentan al modelo.

Reacciones de usuarios y comportamiento observado

Varios usuarios afirmaron que al usar el modelo con herramientas que permiten controlar aplicaciones —por ejemplo, un asistente que toma acciones en el sistema— el modelo tendía a recurrir a metáforas de criaturas para describir fallos o «bugs». Algunas personas notaron que, al activar ciertos modos o personae, el asistente hablaba de problemas como si fueran «gremlins» o «duendes», generando desde risas hasta incomodidad.

Ese patrón fue lo que llevó a la documentación a incluir una cláusula que trate de evitar referencias no relevantes y mantener respuestas más directas y profesionales.

Contexto técnico: modelos, agentes y por qué aparecen metáforas

Los sistemas como GPT-5.5 funcionan prediciendo cuál es la siguiente secuencia de palabras o fragmentos de código más probables dado un contexto. Esa naturaleza probabilística hace que, en ambientes complejos y con muchas instrucciones superpuestas, el modelo pueda elegir expresiones creativas o recurrentes. Cuando se utiliza un agente que añade instrucciones adicionales —como memoria a largo plazo o pasos encadenados— el modelo recibe un contexto ampliado que puede favorecer patrones lingüísticos curiosos. Un agentic harness es, en este sentido, un conjunto de directrices y módulos que guían la actuación del modelo y que pueden aumentar la propensión a respuestas idiosincrásicas.

Por qué una regla pragmática puede ser necesaria

Insertar una prohibición explícita en Codex CLI es una medida pragmática para reducir ambigüedades y evitar que la salida del modelo se desvíe hacia metáforas que no aportan valor cuando se solicita código o acciones automáticas. En contextos donde un asistente gestiona correos, compras o tareas administrativas —como hace la herramienta adquirida por la empresa— es preferible que las descripciones sean claras y orientadas a la solución. Así, una cláusula que limite el uso de imágenes o criaturas sirve para mantener la predictibilidad y la utilidad de las respuestas.

La adquisición y la respuesta pública

OpenAI adquirió OpenClaw en febrero, una herramienta que permite al asistente controlar un ordenador y aplicaciones para realizar tareas prácticas en nombre del usuario. OpenClaw se hizo viral por su capacidad de automatizar procesos y por permitir elegir distintos personae para el asistente, lo que moldeaba su tono y comportamiento. Tras la compra, surgieron usuarios que notaron la tendencia a hablar de «duendes» al describir errores, lo que motivó investigaciones internas y ajustes en las instrucciones entregadas al modelo.

Comentarios desde el equipo y la dirección

Miembros del equipo responsable de Codex reconocieron la existencia de la restricción. Por ejemplo, un desarrollador vinculó la norma a problemas observados con el comportamiento del agente. Además, el propio director ejecutivo participó en la conversación con tono jocoso, compartiendo una captura que satirizaba la situación y mencionaba la posibilidad de «entregar más duendes» como broma. Ese cruce entre humor público y decisiones técnicas ilustra cómo los detalles de diseño en IA pueden convertirse rápidamente en tema cultural dentro y fuera de la empresa.

En definitiva, lo descubierto no es solo una anécdota graciosa: pone de relieve cómo los equipos que construyen asistentes automatizados equilibran libertad creativa y control pragmático para mantener utilidad, seguridad y coherencia en productos que interactúan con sistemas reales y usuarios variados.

¿Qué piensas?

Escrito por Roberto Investigator

Tres escándalos políticos y dos fraudes financieros sacados a la luz. Trabaja con un método casi científico: múltiples fuentes, documentos verificados, cero suposiciones. No publica hasta que esté a prueba de balas. El buen periodismo de investigación requiere paciencia y paranoia en partes iguales.

Novedades de Google Workspace en Cloud Next 2026: Gemini como asistente y nuevas herramientas

Novedades de Google Workspace en Cloud Next 2026: Gemini como asistente y nuevas herramientas