Una asociación estratégica en el ámbito de la defensa
OpenAI ha establecido su primera gran asociación en el sector de la defensa, un acuerdo que podría llevar a la gigante de la inteligencia artificial a colaborar estrechamente con el Pentágono. La reciente alianza fue anunciada por Anduril Industries, una startup de defensa valorada en miles de millones, fundada por Palmer Luckey, cofundador de Oculus VR. Anduril se especializa en la venta de torres de vigilancia, dispositivos de interferencia en comunicaciones, drones militares y submarinos autónomos.
Mejorando la conciencia situacional con IA
La «asociación estratégica» tiene como objetivo integrar los modelos de inteligencia artificial de OpenAI en los sistemas de Anduril, lo que permitirá «sintetizar rápidamente datos sensibles al tiempo, reducir la carga sobre los operadores humanos y mejorar la conciencia situacional». Anduril ya proporciona tecnología anti-drones al gobierno de los Estados Unidos, lo que subraya la importancia de esta colaboración en el contexto de la seguridad nacional.
Un enfoque en la defensa sin bajas humanas
OpenAI ha aclarado que esta asociación se centrará únicamente en sistemas que «defienden contra amenazas aéreas sin piloto», evitando así la asociación explícita de su tecnología con aplicaciones militares que puedan causar bajas humanas. Tanto OpenAI como Anduril han expresado que esta colaboración es crucial para mantener a Estados Unidos a la par con los avances en inteligencia artificial de países como China, un objetivo que ha sido reiterado en las inversiones del gobierno estadounidense en tecnología y eficiencia gubernamental.
Compromiso con valores democráticos
Sam Altman, CEO de OpenAI, afirmó que «OpenAI construye inteligencia artificial para beneficiar a la mayor cantidad de personas posible y apoya los esfuerzos liderados por Estados Unidos para garantizar que la tecnología respete los valores democráticos». Esta declaración resalta el compromiso de OpenAI con la ética en el uso de la inteligencia artificial, incluso en el contexto de la defensa nacional.
Un cambio en las políticas de OpenAI
En enero, OpenAI eliminó silenciosamente el lenguaje de política que prohibía aplicaciones de sus tecnologías que presentaban un alto riesgo de daño físico, incluyendo «militar y guerra». Un portavoz de OpenAI comentó que «nuestra política no permite que nuestras herramientas se utilicen para dañar a las personas, desarrollar armas, realizar vigilancia de comunicaciones o lesionar a otros». Sin embargo, se reconocen casos de uso en seguridad nacional que se alinean con su misión, como la colaboración con DARPA para crear nuevas herramientas de ciberseguridad.
La tendencia de la inteligencia artificial en el ámbito militar
OpenAI no es la única innovadora en inteligencia artificial que está pivotando hacia aplicaciones militares. Otras empresas tecnológicas, como Anthropic y Palantir, han anunciado asociaciones para ofrecer modelos de IA a agencias de defensa e inteligencia, presentados como herramientas de «ventaja en la toma de decisiones» en entornos clasificados. Este movimiento refleja una creciente tendencia en la industria tecnológica hacia la integración de la inteligencia artificial en el ámbito militar, lo que plantea importantes cuestiones éticas y de seguridad.