La reciente aprobación de la ley RAISE por parte de los legisladores del estado de Nueva York representa un hito en la regulación de la inteligencia artificial (IA). Esta normativa busca evitar que modelos de IA de empresas como OpenAI, Google y Anthropic contribuyan a escenarios de desastre, donde se podrían generar muertes o lesiones a más de 100 personas, o daños económicos que superen los 1.000 millones de dólares. Esta iniciativa es vista como un triunfo para el movimiento de seguridad de la IA, que ha enfrentado diversos desafíos en los últimos años.
Objetivos y características de la ley RAISE
La ley RAISE tiene como propósito establecer un conjunto de estándares de transparencia legalmente obligatorios para los laboratorios de IA en Estados Unidos. Esto incluye la publicación de informes exhaustivos sobre la seguridad y el comportamiento de los modelos de IA que desarrollan. A diferencia de la ley de seguridad de IA de California, que fue finalmente vetada, el senador Andrew Gounardes, coautor de la ley, ha asegurado que la RAISE Act no limitará la innovación entre startups o investigadores académicos, un punto crítico que se había señalado en la legislación de California.
Importancia de actuar rápidamente
Gounardes subrayó la urgencia de implementar medidas de seguridad en un contexto donde la tecnología avanza a un ritmo vertiginoso. «La ventana para establecer salvaguardias se está cerrando rápidamente», afirmó el senador. Esta preocupación se fundamenta en la opinión de expertos que consideran que los riesgos asociados al desarrollo de la IA son extremadamente probables. Tal afirmación ha generado una creciente alarma sobre las posibles consecuencias de no regular adecuadamente esta tecnología.
Implicaciones para las empresas de IA
Si la ley es firmada por la gobernadora de Nueva York, Kathy Hochul, los laboratorios de IA más grandes del mundo estarán obligados a informar sobre incidentes de seguridad, así como sobre comportamientos preocupantes de sus modelos de IA. Además, se establecerán sanciones civiles de hasta 30 millones de dólares para las empresas que no cumplan con estos estándares. Sin embargo, la ley está diseñada para aplicarse exclusivamente a aquellas empresas que hayan utilizado más de 100 millones de dólares en recursos computacionales para entrenar sus modelos, lo que, aparentemente, incluye a todos los modelos de IA actuales.
Resistencia de Silicon Valley
El sector tecnológico ha reaccionado de manera contundente ante la propuesta de Nueva York. Alex Bores, miembro de la Asamblea estatal y coautor de la ley, ha afirmado que la resistencia de la industria no es sorprendente, pero sostiene que la ley no limitará la innovación. Por otro lado, Jack Clark, cofundador de Anthropic, ha expresado sus preocupaciones sobre la amplitud de la ley, sugiriendo que podría representar un riesgo para las empresas más pequeñas. Sin embargo, Gounardes ha respondido que la ley no se aplica a estas, buscando tranquilizar a los críticos.
Temor a la fuga de empresas
Aunque algunos críticos han advertido que los desarrolladores de modelos de IA podrían optar por no ofrecer sus modelos más avanzados en Nueva York, Bores ha argumentado que la carga regulatoria de la ley es relativamente ligera y no debería disuadir a las empresas de operar en el estado. Nueva York es un centro económico importante, con el tercer PIB más grande de Estados Unidos, por lo que retirar operaciones de este estado no sería una decisión que las empresas tomarían a la ligera.
Un paso hacia el futuro de la IA
En resumen, la ley RAISE podría establecer un precedente importante en la regulación de la inteligencia artificial en Estados Unidos. Si se implementa correctamente, podría conducir a un mayor nivel de responsabilidad y transparencia en el desarrollo de tecnologías de IA, beneficiando tanto a los consumidores como a la industria en general. Este movimiento podría influir en otras jurisdicciones a nivel nacional e internacional, fomentando un entorno más seguro y confiable para la innovación tecnológica.