in

OpenAI respalda SB 3444 en Illinois y busca exención de responsabilidad para modelos avanzados

Descubre por qué OpenAI respalda una iniciativa de Illinois que podría redefinir la responsabilidad legal de los modelos de inteligencia artificial más potentes

OpenAI respalda SB 3444 en Illinois y busca exención de responsabilidad para modelos avanzados

La discusión sobre la responsabilidad legal de las empresas que crean inteligencia artificial ha dado un nuevo giro con el respaldo público de OpenAI a una iniciativa legislativa en Illinois. El proyecto conocido como SB 3444 plantea una exención de responsabilidad para desarrolladores de modelos que provoquen daños materiales o humanos muy severos, siempre que cumplan una serie de condiciones. En ese marco se establecen umbrales concretos —como impactos que afecten a un alto número de personas o pérdidas económicas millonarias— y requisitos de transparencia que deben acompañar al despliegue de sistemas avanzados.

El apoyo de una de las principales compañías del sector marca un cambio respecto a estrategias previas, en las que muchos laboratorios se mostraban más defensivos frente a nuevas regulaciones. El texto define además qué se considera un modelo de frontera y qué medidas de mitigación son exigibles: entre ellas, la publicación de informes de seguridad, de seguridad informática y de transparencia en los sitios web de los desarrolladores. Empresas como OpenAI, Google, xAI, Anthropic o Meta encajan, según la propuesta, en la categoría que necesita estas salvaguardas.

Qué propone la norma

La iniciativa pretende blindar a los creadores de modelos de frontera frente a demandas por lo que el texto llama daños críticos, siempre que no exista intencionalidad o negligencia grave de su parte. Los ejemplos que utiliza el borrador incluyen escenarios extremos —como la creación facilitada de armas de tipo químico, biológico, radiológico o nuclear— o situaciones en que el comportamiento autónomo del sistema equivalga a la comisión de delitos con consecuencias masivas.

En esos casos, y solo si se cumplen las salvaguardias exigidas, la ley limitaría la responsabilidad civil del desarrollador.

Otro punto clave de la propuesta es el umbral técnico: el proyecto define un modelo de frontera como aquel entrenado con más de $100 millones en costes de cómputo, un criterio que busca distinguir a los sistemas de mayor escala y riesgo. La exención de responsabilidad quedaría condicionada a que la entidad no haya actuado de forma intencional o temeraria y a que haya publicado informes de seguridad y protocolos de transparencia.

Además, quienes apoyan la medida argumentan que sirve para evitar un mosaico regulatorio estatal y favorecer una armonización nacional.

Reacciones y debate

Apoyo y argumentos desde la industria

Portavoces de OpenAI han defendido que propuestas como SB 3444 priorizan la reducción del riesgo de daños severos sin bloquear la difusión de la tecnología entre empresas y ciudadanos. En audiencias, representantes de la compañía han abogado también por un marco federal que evite múltiples requisitos distintos por estado, insistiendo en la idea de que la armonización federal facilitaría cumplimiento y competitividad. Para quienes respaldan el enfoque, la combinación de límites de responsabilidad y obligaciones de transparencia puede ser una vía práctica para gestionar riesgos sin sofocar la innovación.

Críticas, preocupaciones públicas y resistencias

Organizaciones y activistas han mostrado escepticismo; entre los críticos está el proyecto Secure AI, cuyo director argumenta que una exención amplia sería impopular y peligrosa. Encuestas citadas por críticos sugerirían rechazo público a la idea de eximir a grandes empresas de responsabilidad por daños. Además, Illinois tiene historial de regulación tecnológicamente estricta —como la ley de BIPA sobre biometría— y ya aprobó límites en el uso de la IA en servicios de salud mental. Casos judiciales recientes, incluidos litigios presentados por familias afectadas por interacciones con chatbots, añaden presión para no relajar estándares de responsabilidad.

Implicaciones legales y panorama nacional

La propuesta llega en un contexto en el que no existe aún una ley federal clara que determine la responsabilidad de los desarrolladores cuando un sistema causa eventos catastróficos. Estados como California y Nueva York han aprobado normas que exigen la presentación de informes de seguridad y transparencia —por ejemplo, leyes como SB 53 o iniciativas similares—, mientras que administraciones federales han publicado marcos y órdenes ejecutivas sin lograr todavía una legislación consolidada. Con modelos cada vez más potentes —mencionados públicamente, por ejemplo, por desarrollos recientes de Anthropic y otros— las preguntas sobre responsabilidad, supervisión y límites legales siguen sin resolverse.

El debate refleja el clásico dilema: cómo equilibrar innovación y seguridad sin crear vacíos de responsabilidad ni frenar avances tecnológicos relevantes. SB 3444 podría convertirse en un referente para la industria si prospera, pero también podría enfrentar resistencias políticas y judiciales que mantengan la cuestión abierta durante más tiempo. Mientras tanto, la discusión sobre quién responde cuando una IA causa daños graves continúa siendo uno de los grandes retos legales y éticos del sector.

¿Qué piensas?

Escrito por Alessandro Bianchi

Ha lanzado productos tech usados por millones y otros que fracasaron miserablemente. Esa es la diferencia entre él y quienes escriben de tecnología habiéndola solo leído: conoce el sabor del éxito y el del pivot de las 3 de la mañana. Cero hype, solo sustancia.

Guía práctica para jugar NYT Strands: pistas y respuestas sin vueltas

Guía práctica para jugar NYT Strands: pistas y respuestas sin vueltas