in

Anthropic flexibiliza su política de seguridad para responder a competencia y presiones gubernamentales

Anthropic reemplaza su compromiso original de detener el entrenamiento de modelos peligrosos por una hoja de ruta pública; la decisión llega en medio de un enfrentamiento con el Pentágono y una carrera por el liderazgo en inteligencia artificial

anthropic flexibiliza su politica de seguridad para responder a competencia y presiones gubernamentales 1772071455

El 25 de febrero de 2026 Anthropic, la compañía responsable del chatbot Claude, publicó un cambio importante en su enfoque sobre la seguridad en IA. En lugar de mantener la promesa categórica de detener el desarrollo de modelos cuando su riesgo superara las mitigaciones disponibles, la firma presentó una versión más flexible de su política. Este giro ocurre en un contexto de competencia acelerada entre laboratorios de IA y de crecientes tensiones con entidades gubernamentales, especialmente el Pentágono.

La actualización no significa que Anthropic abandone la preocupación por los riesgos: la empresa afirma que seguirá informando públicamente sobre pruebas y mitigaciones. No obstante, ha sustituido la cláusula de pausa automática por una hoja de ruta pública y metas evaluables, que permitirán ajustar sus compromisos según lo que hagan otros desarrolladores del sector y según la evidencia científica disponible.

¿Qué cambia en la práctica?

Antes, la piedra angular era la Responsible Scaling Policy, que comprometía a Anthropic a no entrenar modelos que no pudieran ser asegurados con anticipación.

Con la revisión, esa cláusula quedó relegada y el nuevo marco prioriza la transparencia y la capacidad de adaptación. La compañía promete publicar informes periódicos sobre capacidades, modelos de amenaza y progresos en mitigaciones, y se ofrece a evaluar sus decisiones en función de lo que consideren otros actores del mercado.

De la pausa a la hoja de ruta pública

La transformación conceptual pasa de una regla rígida a objetivos públicos que la empresa calificará y evaluará abiertamente.

Anthropic sostiene que detener unilateralmente el avance mientras otros actores planean lanzar modelos podría, en la práctica, empeorar la seguridad global. Por ello apuesta por un enfoque más coordinado: mantener protocolos de prueba y mayor divulgación para que reguladores, competidores y el público supervisen su progreso.

Presiones externas: competencia y el conflicto con el Pentágono

El anuncio llega en una semana marcada por un enfrentamiento entre Anthropic y funcionarios del Departamento de Defensa de EE.

UU. Se informó que el Secretario de Defensa, Pete Hegseth, demandó a la compañía que relaje ciertas salvaguardas para mantener un contrato de aproximadamente 200 millones de dólares. Anthropic se negó a permitir usos que implicaran vigilancia masiva de ciudadanos o el empleo de sistemas autónomos sin supervisión humana, según fuentes. Esa negativa generó la amenaza de excluir a la empresa de futuras colaboraciones gubernamentales.

Al mismo tiempo, otras grandes casas tecnológicas han seguido un ritmo frenético de lanzamientos comerciales, lo que aumenta la percepción de riesgo si un único actor decide frenar sin que exista una acción coordinada. Anthropic argumenta que su cambio responde tanto a la dinámica del mercado como a la ausencia de un marco regulatorio federal robusto que armonice criterios de seguridad.

Consecuencias para el sector y expectativas regulatorias

La decisión ha generado reacciones divididas entre investigadores y reguladores: algunos celebran la apuesta por mayor transparencia, otros critican la pérdida de una promesa vinculante. El debate subraya dos realidades coexistentes: la rapidez de los avances técnicos y la lentitud de la política pública para establecer reglas claras. Anthropic ha invertido en comunicación y donaciones para promover salvaguardias, pero reconoce que esperar una regulación internacional o nacional que homologue parámetros fue una expectativa que no se materializó.

¿Qué significa para los usuarios y socios?

Para clientes empresariales y socios gubernamentales, el nuevo enfoque traerá más información pública sobre riesgos y mitigaciones, pero también mayor incertidumbre sobre cuándo y cómo Anthropic podría detener o ralentizar proyectos. La empresa afirma que priorizará la seguridad operativa y la ética en usos sensibles; sin embargo, añade que las decisiones se tomarán en un marco más pragmático, evaluando la conducta de competidores y la evidencia técnica disponible.

Su apuesta por reportes públicos y metas evaluables pretende ofrecer una alternativa a promesas absolutas, mientras que el pulso con el Pentágono acentúa las preguntas sobre límites en el uso militar de la inteligencia artificial.

Queda por ver si esta jugada fomentará mayor coordinación entre empresas o si abarcará un terreno intermedio donde la transparencia sustituya a los frenos definitivos. Lo cierto es que la conversación sobre riesgos catastróficos, supervisión gubernamental y responsabilidades corporativas en IA continuará siendo central en los próximos meses.

¿Qué piensas?

Escrito por Staff

cambio en las listas de deseos de amazon terceros podran comprar y recibir direcciones 1772071201

Cambio en las listas de deseos de Amazon: terceros podrán comprar y recibir direcciones