
El acuerdo permitirá el uso de modelos de OpenAI, como ChatGPT, dentro de entornos clasificados del Pentágono, tras el fracaso de negociaciones similares entre la agencia y la firma rival Anthropic.
Durante la conversación interna con su equipo, Altman reconoció que la manera en que se presentó el acuerdo había sido “apresurada” y que eso contribuyó a la percepción de que OpenAI había cedido ante presiones externas. Aun así, defendió su decisión, subrayando que el objetivo era evitar una escalada de tensiones entre el gobierno y las empresas tecnológicas.
“Trabajar tan duro para hacer lo correcto y recibir una respuesta tan fuerte—personalmente y profesionalmente—ha sido realmente doloroso”, dijo Altman a sus colaboradores, según fuentes internas.

Críticas desde dentro y fuera de la empresa
La reacción no se limitó a la prensa y redes sociales: varios investigadores y empleados de OpenAI expresaron públicamente sus reservas. Algunos advirtieron que el contrato inicial permitía el uso de la tecnología para “todos los fines legales”, lo que podía dejar puertas abiertas a aplicaciones problemáticas como la vigilancia masiva o sistemas autónomos de armas sin supervisión humana efectiva.
Esta desconfianza fue acompañada por una presión pública más amplia: críticos de la industria tecnológica denunciaron que el acuerdo podría comprometer los valores éticos que históricamente han guiado a OpenAI, llevando incluso a protestas y a un aumento de descargas de plataformas competidoras como Claude de Anthropic.

Salvaguardas y ajustes al acuerdo
En respuesta al rechazo masivo, OpenAI y el Pentágono realizaron ajustes al acuerdo. Las partes aclararon que la tecnología no será usada para vigilancia doméstica ni por agencias de inteligencia como la NSA sin un cambio contractual específico, incorporando salvaguardias técnicas y legales adicionales. Altman sostuvo que estos cambios clarifican el compromiso de la empresa con los principios éticos, aunque algunos críticos siguen escépticos sobre su aplicación efectiva.
Para Altman, tener una voz en cómo se usa la IA en escenarios de defensa es clave: argumenta que las empresas tecnológicas deben influir en las decisiones de implantación, en lugar de ceder ese poder exclusivamente a gobiernos o militares. Sin embargo, recalca que “una relación constructiva entre gobierno y compañías desarrolladoras de IA será crítica en los próximos años”, incluso si conlleva tensiones públicas significativas.