En los últimos años la convivencia entre desarrolladores y herramientas de IA ha pasado de experimentación a uso cotidiano, y el proyecto Linux ha decidido regular esa relación con pragmatismo. Tras debates acalorados en la comunidad, los mantenedores y Linus Torvalds consensuaron una política que permite enviar parches creados o ayudados por modelos de lenguaje, siempre que se respeten reglas concretas: no dejar que el agente ponga la firma legal, identificar las herramientas utilizadas y asumir la responsabilidad final por el resultado.
La nueva norma pretende equilibrar dos objetivos: aprovechar el potencial productivo de los asistentes y preservar la calidad y la trazabilidad del código en el kernel. Para lograrlo se adoptaron medidas prácticas que inciden tanto en la forma de etiquetar contribuciones como en la manera de revisar y sancionar envíos negligentes. En el centro de la política está la idea de que la IA es una herramienta, no una autora, y que la responsabilidad legal y técnica recae en la persona que firma la aportación.
Principios fundamentales de la política
La política desarrolla tres pilares claros: primero, los agentes de IA no pueden añadir la etiqueta Signed-off-by, que certifica el Developer Certificate of Origin (DCO) y es el mecanismo legal para declarar derechos sobre el código. Segundo, cualquier uso de la IA debe declararse mediante una etiqueta Assisted-by que indique el modelo y herramientas auxiliares; por ejemplo, una entrada tipo «Assisted-by: Claude:claude-3-opus coccinelle sparse» sirve de ejemplo práctico.
Tercero, la persona que envía el parche asume la responsabilidad total por la revisión, la compatibilidad de licencias y posibles fallos o vulnerabilidades.
Origen del debate y decisiones técnicas
La necesidad de esta norma surgió después de varios incidentes que tensaron la comunidad, entre ellos la presentación de un parche para Linux 6.15 por parte del ingeniero Sasha Levin, que había sido generado íntegramente por una IA sin ser declarado inicialmente.
Aunque el código llegó a compilar y pasó pruebas, generó controversia por una regresión de rendimiento y por la falta de transparencia. Ese episodio y las conversaciones en el LKML impulsaron propuestas como la etiqueta Co-developed-by o Generated-by, hasta que finalmente se acordó usar Assisted-by para subrayar el papel auxiliar de la IA.
Por qué se escogió Assisted-by
La elección de la etiqueta responde a tres consideraciones prácticas: describe mejor la mayoría de usos (completado de código, refactorizaciones, generación de pruebas), encaja con el formato de metadatos ya existentes (Reviewed-by, Tested-by) y evita etiquetar contribuciones como sospechosas o menos válidas. Con esta etiqueta, los mantenedores pueden aplicar mayor escrutinio cuando lo crean necesario sin estigmatizar automáticamente al aporte.
Aplicación práctica y medidas de control
La política no depende de detectores automáticos de IA; los mantenedores seguirán basándose en la experiencia técnica, la revisión manual y el juicio profesional para evaluar parches. Como ha señalado Linus Torvalds, el problema real no son los desvaríos obvios de la IA, sino las contribuciones verosímiles que cumplen la especificación y el estilo local y, sin embargo, introducen un fallo sutil o una carga de mantenimiento a largo plazo. Por tanto, la norma refuerza la revisión y establece consecuencias administrativas y reputacionales para quien intente ocultar el uso de asistentes.
Consecuencias y disuasión
La estrategia de cumplimiento se basa en la severidad de las sanciones más que en la detección masiva: si un contribuidor es sorprendido entregando código asistido por IA sin etiquetar, puede perder credibilidad y acceso a la comunidad de desarrollo, además de la desaprobación pública de mantenedores con amplia autoridad. Esa combinación de transparencia obligatoria (Assisted-by) y responsabilidad humana busca desalentar intentos de colar lo que la comunidad llama AI slop y mantener la integridad del proyecto.
Implicaciones para desarrolladores y buenas prácticas
Para quienes colaboran en el kernel, la recomendación es clara: utilicen asistentes de manera responsable, incluyan la etiqueta Assisted-by, revisen exhaustivamente el código generado y aseguren la conformidad con las licencias antes de firmar el DCO. La política permite aprovechar herramientas como completadores y generadores de pruebas, pero recuerda que la última palabra sobre la calidad y la legalidad la tiene la persona que envía el parche.
Resumen y mirada práctica
En síntesis, el proyecto Linux ha optado por una postura pragmática: aceptar la ayuda de la IA si hay transparencia y responsabilidad humana. Eso mantiene abiertas las ventajas productivas de los asistentes sin sacrificar la confianza ni la seguridad del ecosistema. Para los desarrolladores, la lección es sencilla: la IA puede acelerar tareas, pero no exime de revisar, entender y responder por cada línea que se introduce en el kernel.

