INTELIGENCIA ARTIFICIAL

Publicado 25/02/2026

Anthropic reduce compromisos clave de seguridad en IA en medio de presión competitiva y geopolítica

En un giro significativo a su estrategia de gobernanza de inteligencia artificial, la empresa de investigación Anthropic, hasta ahora una de las voces más firmes en seguridad de IA, anunció la flexibilización de sus compromisos centrales de seguridad, reconfigurando su política interna para poder avanzar más rápidamente en el desarrollo de sistemas de IA de alto poder sin las restricciones de autodetención que había establecido originalmente.
Compartir
Compartir por Facebook Compartir por WhatsApp Compartir por X Compartir por Telegram

En un giro significativo a su estrategia de gobernanza de inteligencia artificial, la empresa de investigación Anthropic, hasta ahora una de las voces más firmes en seguridad de IA, anunció la flexibilización de sus compromisos centrales de seguridad, reconfigurando su política interna para poder avanzar más rápidamente en el desarrollo de sistemas de IA de alto poder sin las restricciones de autodetención que había establecido originalmente.

La compañía, fundada en 2021 por ex líderes de investigación de OpenAI con el propósito explícito de equilibrar innovación con seguridad para “el beneficio a largo plazo de la humanidad”, actualizó su Responsible Scaling Policy (RSP) al contexto competitivo actual del mercado de IA.

 

Bajo la nueva versión del RSP, Anthropic elimina o modifica la promesa de no entrenar ni desplegar modelos avanzados a menos que pueda garantizar mitigaciones de riesgo antes de su desarrollo, una piedra angular de su enfoque de seguridad desde 2023, según condigó Time.

 

El cambio se produce en un momento de presión intensa por parte de actores del sector y entornos geopolíticos, donde rivales como OpenAI, Google DeepMind y xAI avanzan rápidamente en sus despliegues y acuerdos comerciales. Según la cobertura del Wall Street Journal, Anthropic sostuvo que la evolución de la industria y la falta de una regulación federal clara en EE. UU. hicieron que el compromiso unilateral resultara insostenible si los competidores no asumían similares restricciones.

 

El CEO de Anthropic, Dario Amodei.

 

Por qué ocurre este cambio

En declaraciones internas reproducidas por medios, ejecutivos de Anthropic argumentan que un compromiso demasiado rígido terminaría por dejar rezagada a la empresa en innovación y relevancia técnica, mientras que otras compañías avanzan sin las mismas barreras. Según ellos, continuar deteniéndose cuando otros entrenan y despliegan modelos más capaces puede, en realidad, no hacer al ecosistema global más seguro, ya que permitiría que desarrolladores menos responsables lideren la curva de riesgo.

 

 

Contexto de tensión: presión militar y salida de personal

Este ajuste no se da en abstracto: el Departamento de Defensa de Estados Unidos ha presionado de forma pública para que Anthropic relaje ciertas restricciones en el uso de su modelo Claude en aplicaciones militares, incluso amenazando con cancelar un contrato de unos USD 200 millones y clasificarla como “riesgo para la cadena de suministro” si no accede a ofrecer un acceso más amplio para usos militares legales.

 

 

Qué implica esta reconfiguración para el sector

La decisión de Anthropic marca un punto de inflexión en cómo las grandes empresas tecnológicas equilibran seguridad y competitividad:

  • Para la industria de IA, puede señalar una tendencia más amplia: desplazar los compromisos de seguridad como barrera absoluta hacia esquemas más flexibles y adaptativos, en parte porque ninguna regulación supranacional clara ha surgido que nivele el terreno de juego.
  • Para gobiernos y reguladores, el movimiento resalta la urgencia de marcos normativos que vayan más allá de buenas prácticas corporativas y establezcan reglas claras para el desarrollo de tecnologías con riesgos potencialmente catastróficos.
  • Para clientes corporativos y estatales, la flexibilidad puede significar acceso más rápido a capacidades avanzadas de IA, pero también pone bajo escrutinio el papel de las salvaguardas y cómo se comunican públicamente los riesgos.
  •  

 

 

 

Un equilibrio delicado

Anthropic insiste en que su compromiso con transparencia, publicación de objetivos de seguridad regulares y evaluaciones externas de riesgo continúa siendo fuerte, incluso con la eliminación de su barrera más rígida. Sin embargo, críticos advierten que, en ausencia de mecanismos de rendición de cuentas más exigentes, este tipo de flexibilidad podría amenazar la confianza pública y la gestión responsable de IA avanzada a largo plazo.

La manera en que Anthropic y otros líderes del sector articulen y operen estos compromisos será un factor clave en las próximas etapas de la carrera por el liderazgo en inteligencia artificial.