El 26 de julio, en un movimiento que ha captado la atención de muchos, el gobierno chino lanzó su \»Plan de Acción Global para la Gobernanza de la IA\». ¿Por qué es tan significativo? Porque coincide con el inicio de la Conferencia Mundial de Inteligencia Artificial (WAIC) en Shanghái, un evento que reúne a grandes figuras de la tecnología, como Geoffrey Hinton y Eric Schmidt. Este tipo de encuentros subraya la creciente necesidad de cooperación internacional para el desarrollo de la inteligencia artificial. Mientras tanto, en Estados Unidos, la administración Trump se ha mostrado más relajada respecto a la regulación, generando un contraste interesante entre las estrategias de ambos países.
Un enfoque diferente hacia la regulación de la IA
Durante su discurso inaugural en la WAIC, el primer ministro chino, Li Qiang, hizo un llamado claro a la cooperación global en el ámbito de la inteligencia artificial. ¿Acaso no es fundamental unir fuerzas en un campo tan delicado? Este mensaje fue respaldado por presentaciones de investigadores chinos que abordaron temas críticos sobre la seguridad en la IA, cuestiones que en la administración estadounidense han sido tratadas con menos énfasis. Zhou Bowen, líder del Laboratorio de IA de Shanghái, insistió en la importancia de la seguridad en el desarrollo de modelos de IA y propuso un papel activo del gobierno en la supervisión de estos sistemas.
La comunidad académica no se quedó atrás. Yi Zeng, profesor en la Academia China de Ciencias, expresó su esperanza de que distintos organismos de seguridad en IA de todo el mundo colaboren. “Sería ideal que el Reino Unido, Estados Unidos, China y Singapur se unieran en esta causa”, afirmó Zeng, resaltando la necesidad de un enfoque conjunto. ¿No sería inspirador ver a estos países trabajar codo a codo?
La ausencia de liderazgo estadounidense y sus implicaciones
Fue notable la falta de representantes estadounidenses en las discusiones sobre políticas de seguridad de IA. Paul Triolo, socio de DGA-Albright Stonebridge Group, comentó que, a pesar de esta ausencia, las conversaciones fueron productivas. “Una coalición de actores clave en seguridad de IA, liderada por China, Singapur, el Reino Unido y la UE, comenzará a trazar directrices para el desarrollo de IA”, aseguró Triolo. Esto plantea la posibilidad de que China asuma un rol de liderazgo en la definición de normas de seguridad globales, especialmente en un contexto donde la administración Trump ha intentado limitar nuevas regulaciones estatales.
La diferencia en la regulación de IA entre ambos países se hace cada vez más evidente. Mientras que los líderes chinos abogan por implementar medidas de seguridad, en Estados Unidos se observa una resistencia a establecer directrices claras. Esta dinámica ha llevado a algunos a considerar a China como el “adulto en la sala” en la conversación global sobre IA. ¿Es este un cambio de paradigma significativo?
Preocupaciones compartidas y la respuesta del sector privado
A pesar de las diferencias políticas, tanto en China como en Estados Unidos hay una preocupación compartida sobre los riesgos asociados a la IA, que incluyen alucinaciones de modelos, sesgos y vulnerabilidades en ciberseguridad. Brian Tse, fundador de Concordia AI, destacó que las similitudes en el desarrollo de modelos de IA en ambos países han llevado a un enfoque convergente en la investigación sobre seguridad. “Los modelos de IA entrenados en arquitecturas similares presentan riesgos muy parecidos”, añadió Tse. ¿No es fascinante cómo estos desafíos trascienden fronteras?
No obstante, la respuesta de las empresas chinas ante la presión creciente por abordar la seguridad de la IA ha sido menos entusiasta. Un informe de Concordia AI reveló que muchas de estas compañías son reacias a compartir información sobre sus esfuerzos en seguridad, a diferencia de sus contrapartes occidentales. De los 13 desarrolladores de IA analizados, solo tres presentaron información sobre evaluaciones de seguridad en sus publicaciones. Esto plantea una pregunta crucial: ¿qué les impide ser más transparentes?
A pesar de esta resistencia, es posible que la presión gubernamental lleve a un cambio en la actitud de las startups chinas hacia la seguridad de la IA. Triolo anticipó que los laboratorios de investigación en China comenzarán a publicar más investigaciones sobre seguridad en el futuro. Este cambio podría ser clave para desarrollar un marco de seguridad más robusto que beneficie tanto a la industria como a la sociedad. ¿Estamos en el umbral de un nuevo capítulo en la regulación de la IA?