Esta semana, el mundo tecnológico estuvo en el centro de la atención tras las declaraciones de figuras prominentes de Silicon Valley. Entre ellas, el Czar de IA y criptomonedas de la Casa Blanca, David Sacks, y el Director de Estrategia de OpenAI, Jason Kwon. Ambos realizaron comentarios controversiales sobre los defensores de la seguridad en inteligencia artificial, sugiriendo que algunos de estos defensores podrían no actuar por un interés genuino, sino que estarían sirviendo a intereses personales o a los de patrocinadores adinerados.
En conversaciones con TechCrunch, representantes de organizaciones dedicadas a la seguridad de la inteligencia artificial manifestaron su opinión de que estos comentarios son parte de una estrategia más amplia de Silicon Valley para intimidar a los críticos. No es la primera vez que se utilizan tales tácticas; por ejemplo, en 2024, circularon rumores entre las firmas de capital de riesgo sobre un proyecto de ley propuesto en California, conocido como SB 1047, que tenía como objetivo la seguridad en IA y podría acarrear consecuencias severas para los fundadores de startups, incluyendo la posibilidad de cárcel. A pesar de que la Brookings Institution calificó estos rumores como engañosos, el gobernador Gavin Newsom decidió vetar el proyecto de ley.
Tácticas de crítica e intimidación
Independientemente de si Sacks y Kwon pretendían intimidar a los defensores de la seguridad en la inteligencia artificial, sus comentarios han generado un efecto disuasorio. Varios líderes de organizaciones sin fines de lucro contactados por TechCrunch solicitaron el anonimato, temiendo represalias contra sus instituciones por expresar sus opiniones. Este incidente pone de manifiesto el creciente conflicto en Silicon Valley entre la búsqueda de un desarrollo responsable de la IA y la presión por una rápida comercialización de las tecnologías de inteligencia artificial.
Las dinámicas del debate sobre la seguridad de la IA
El pasado martes, Sacks utilizó X (anteriormente Twitter) para criticar a Anthropic, un actor clave en el ámbito de la inteligencia artificial que ha expuesto preocupaciones sobre los posibles efectos negativos de esta tecnología, como el desplazamiento laboral y el aumento de amenazas cibernéticas. Sacks acusó a Anthropic de participar en una campaña de alarmismo destinada a obtener leyes que principalmente beneficien sus intereses, mientras que imponen requisitos regulatorios excesivos a las startups más pequeñas. Esta acusación surgió en respuesta a un ensayo ampliamente compartido del cofundador de Anthropic, Jack Clark, en el que expresaba sus inquietudes sobre el impacto de la inteligencia artificial.
Clark presentó su ensayo en la conferencia de seguridad AI Curve en Berkeley, donde muchos interpretaron sus preocupaciones como un reflejo sincero de un tecnólogo enfrentando las implicaciones de su trabajo. Sin embargo, Sacks desestimó esta visión, argumentando que las acciones de Anthropic forman parte de una estrategia más amplia para manipular la regulación a su favor.
Acciones legales y la respuesta de las organizaciones sin fines de lucro
En un desarrollo paralelo, Jason Kwon de OpenAI amplió detalles sobre la decisión de la empresa de emitir citaciones a diversas organizaciones sin fines de lucro dedicadas a la seguridad en inteligencia artificial, entre ellas Encode, que se ha destacado por abogar por políticas de IA responsables. En medio de un litigio en curso con Elon Musk, quien ha expresado su preocupación por el desvío de OpenAI de su misión original sin fines de lucro, Kwon mostró escepticismo respecto a las motivaciones de estas organizaciones. Encode había presentado un amicus brief apoyando las acciones legales de Musk contra OpenAI, lo que llevó a la emisión de las citaciones.
Kwon afirmó que las investigaciones de OpenAI se originaron por preocupaciones respecto a las fuentes de financiación y la posible coordinación entre estas organizaciones sin fines de lucro, lo que, según él, podría estar obstaculizando sus esfuerzos de reestructuración. Informes indican que las citaciones de OpenAI fueron amplias, apuntando a las comunicaciones sobre sus principales adversarios, Elon Musk y Mark Zuckerberg, así como a las discusiones en torno al SB 53, que exige informes de seguridad para las grandes empresas de inteligencia artificial.
Divisiones internas en OpenAI
Dentro de OpenAI, parece haber una creciente división entre sus divisiones de asuntos gubernamentales e investigación. Mientras que el equipo de investigación en seguridad publica constantemente hallazgos sobre los riesgos de la inteligencia artificial, el área de políticas se ha opuesto activamente al SB 53, abogando en cambio por un marco regulatorio a nivel federal. Esta disonancia plantea interrogantes sobre la postura unificada de la empresa en materia de seguridad en inteligencia artificial.
Joshua Achiam, responsable de alineación de misión en OpenAI, compartió su descontento con las citaciones judiciales en un post sincero en X. Reconoció los riesgos potenciales que esto podría acarrear para su carrera y sugirió que la estrategia adoptada por la compañía podría no ser la más adecuada.
Sentimiento público y futuras implicaciones
Brendan Steinhauser, CEO de la organización sin fines de lucro Alliance for Secure AI, comentó sobre el entorno cada vez más hostil para los defensores de la seguridad en la inteligencia artificial. Sugirió que OpenAI ve a los críticos como parte de una conspiración liderada por Elon Musk. Subrayó que muchos en la comunidad de seguridad de la IA están motivados por preocupaciones genuinas sobre las prácticas de la industria, en lugar de un esfuerzo coordinado.
Además, Sriram Krishnan, asesor principal de políticas de inteligencia artificial en la Casa Blanca, se unió al debate. Sugirió que las organizaciones dedicadas a la seguridad de la IA podrían estar desconectadas de las realidades que enfrentan quienes trabajan con esta tecnología a diario. Un estudio reciente de Pew revela que casi la mitad de los estadounidenses siente más preocupación que emoción hacia la IA, destacando temas como la pérdida de empleos y la desinformación.
La tensión entre abordar estas preocupaciones de seguridad y mantener el rápido crecimiento de la industria de la IA es evidente. A medida que el sector de la inteligencia artificial continúa impulsando una parte significativa de la economía estadounidense, el temor a una regulación excesiva se hace presente. No obstante, con el movimiento por la seguridad de la IA cobrando impulso de cara a 2026, la resistencia proveniente de Silicon Valley podría indicar que estos defensores están logrando avances en sus esfuerzos.