La compañía, fundada en 2021 por ex líderes de investigación de OpenAI con el propósito explícito de equilibrar innovación con seguridad para “el beneficio a largo plazo de la humanidad”, actualizó su Responsible Scaling Policy (RSP) al contexto competitivo actual del mercado de IA.
Bajo la nueva versión del RSP, Anthropic elimina o modifica la promesa de no entrenar ni desplegar modelos avanzados a menos que pueda garantizar mitigaciones de riesgo antes de su desarrollo, una piedra angular de su enfoque de seguridad desde 2023, según condigó Time.
El cambio se produce en un momento de presión intensa por parte de actores del sector y entornos geopolíticos, donde rivales como OpenAI, Google DeepMind y xAI avanzan rápidamente en sus despliegues y acuerdos comerciales. Según la cobertura del Wall Street Journal, Anthropic sostuvo que la evolución de la industria y la falta de una regulación federal clara en EE. UU. hicieron que el compromiso unilateral resultara insostenible si los competidores no asumían similares restricciones.

Por qué ocurre este cambio
En declaraciones internas reproducidas por medios, ejecutivos de Anthropic argumentan que un compromiso demasiado rígido terminaría por dejar rezagada a la empresa en innovación y relevancia técnica, mientras que otras compañías avanzan sin las mismas barreras. Según ellos, continuar deteniéndose cuando otros entrenan y despliegan modelos más capaces puede, en realidad, no hacer al ecosistema global más seguro, ya que permitiría que desarrolladores menos responsables lideren la curva de riesgo.
Contexto de tensión: presión militar y salida de personal
Este ajuste no se da en abstracto: el Departamento de Defensa de Estados Unidos ha presionado de forma pública para que Anthropic relaje ciertas restricciones en el uso de su modelo Claude en aplicaciones militares, incluso amenazando con cancelar un contrato de unos USD 200 millones y clasificarla como “riesgo para la cadena de suministro” si no accede a ofrecer un acceso más amplio para usos militares legales.
Qué implica esta reconfiguración para el sector
La decisión de Anthropic marca un punto de inflexión en cómo las grandes empresas tecnológicas equilibran seguridad y competitividad:

Un equilibrio delicado
Anthropic insiste en que su compromiso con transparencia, publicación de objetivos de seguridad regulares y evaluaciones externas de riesgo continúa siendo fuerte, incluso con la eliminación de su barrera más rígida. Sin embargo, críticos advierten que, en ausencia de mecanismos de rendición de cuentas más exigentes, este tipo de flexibilidad podría amenazar la confianza pública y la gestión responsable de IA avanzada a largo plazo.
La manera en que Anthropic y otros líderes del sector articulen y operen estos compromisos será un factor clave en las próximas etapas de la carrera por el liderazgo en inteligencia artificial.