El 14/04/2026 volvió a aflorar una disputa entre grandes empresas de inteligencia artificial: Anthropic ha tomado distancia frente a una iniciativa legislativa de Illinois que cuenta con el respaldo público de OpenAI. El choque no es meramente retórico: el texto en debate propone límites que, de aprobarse, dejarían a muchos laboratorios con una protección amplia contra demandas por daños masivos. En este pulso se mezclan argumentos sobre seguridad, obligación legal y la velocidad de despliegue de modelos avanzados.
En esencia, el proyecto —conocido por sus impulsores como una respuesta al vacío regulatorio— introduce umbrales numéricos y condiciones que condicionan la responsabilidad. Entre los criterios figura que la ley protegería contra demandas por más de 100 muertes o daños superiores a $1.000 millones, y aplicaría a lo que define como modelos frontier, es decir, sistemas entrenados con más de $100 millones en cómputo. A cambio exige cierta transparencia, como la publicación de informes de seguridad, pero eleva la carga probatoria para las víctimas.
Qué señala la propuesta y por qué genera rechazo
El borrador plantea una esquina legal donde las compañías recibirían inmunidad frente a reclamaciones civiles por «daños críticos» salvo en casos de actuación intencional o negligencia grave al no publicar los informes exigidos. Esa definición de daños críticos abarca escenarios extremos: pérdida masiva de vidas, daños materiales colosales o el uso de sistemas para facilitar armas químicas, biológicas o nucleares.
Para muchos críticos, la combinación de umbrales económicos y técnicos crea un acceso privilegiado aludir a una minoría de grandes actores que disponen de recursos para cumplir la etiqueta de modelo frontier.
Protecciones y requisitos
La propuesta intenta equilibrar protección y obligaciones: las empresas obtendrían un paraguas legal pero deberían entregar informes de seguridad y transparencia operativa. Sin embargo, la excepción por «intencionalidad» o «negligencia grave» deja huecos prácticos: ¿cómo probar responsabilidad cuando los sistemas son opacos y las cadenas de decisión complejas? Además, la aplicación exclusiva a modelos entrenados con elevadas inversiones en cómputo concentra el efecto en unas pocas compañías tecnológicas que dominan ese segmento.
El conflicto entre estrategia corporativa y presión pública
La contestación pública ha convertido la discusión en un campo de intereses contrapuestos. OpenAI ha argumentado que límites de responsabilidad así permitirían llevar la tecnología a empresas y ciudadanos sin asfixiar la innovación; por su parte, Anthropic y otros críticos sostienen que la norma rebaja la rendición de cuentas y prioriza la agilidad comercial sobre la protección de terceros. A este debate se suman comportamientos políticos: informes indican que grandes actores destinaron recursos significativos a lobby, lo que intensifica la percepción de que las reglas se diseñan bajo influencia privada.
Lobbying y coordinación regulatoria
En el contexto estadounidense, la ausencia de una ley federal integral transforma a los estados en laboratorios regulatorios. La propuesta de illinois busca evitar un mosaico de normas copiables, incluyendo una cláusula que expiraría si surgiera una regulación federal unificada. No obstante, la promesa de reglas nacionales lleva años sin concretarse, lo que deja a la ciudadanía y a las autoridades locales tomando decisiones con efectos de largo alcance. Mientras tanto, las empresas debaten si prefieren claridad local o una única norma federal.
Consecuencias prácticas para usuarios y víctimas
Más allá de la retórica, la decisión legislativa incide en quién asume el costo de fallos graves de la inteligencia artificial. Si la ley se aprueba en los términos discutidos, las víctimas enfrentarían mayores barreras para obtener reparación civil, pues la protección legal solo se anula ante pruebas de intención o negligencia grave. Al mismo tiempo, los consumidores continuarán incorporando IA en dispositivos cotidianos —desde cámaras y asistentes hasta vehículos— sin garantía clara de responsabilidad en escenarios extremos. La tensión se resume así: acelerar la innovación o fortalecer mecanismos de compensación y control.


