INTELIGENCIA ARTIFICIAL

Publicado 04/03/2026

Sam Altman defiende acuerdo de OpenAI con el Pentágono y califica críticas como “realmente dolorosas”

El director ejecutivo de OpenAI, Sam Altman, enfrentó esta semana una fuerte controversia interna y externa tras la firma de un acuerdo para que los sistemas de inteligencia artificial de la empresa sean utilizados por el Departamento de Defensa de Estados Unidos en redes clasificadas. En una reunión con empleados, Altman defendió el pacto y calificó las críticas recibidas como “realmente dolorosas”, en un momento en que el sector tecnológico debate el rol de la IA en contextos militares y éticos.
Compartir
Compartir por Facebook Compartir por WhatsApp Compartir por X Compartir por Telegram

El director ejecutivo de OpenAI, Sam Altman, enfrentó esta semana una fuerte controversia interna y externa tras la firma de un acuerdo para que los sistemas de inteligencia artificial de la empresa sean utilizados por el Departamento de Defensa de Estados Unidos en redes clasificadas. En una reunión con empleados, Altman defendió el pacto y calificó las críticas recibidas como “realmente dolorosas”, en un momento en que el sector tecnológico debate el rol de la IA en contextos militares y éticos.

Sam Altman, director ejecutivo de OpenAI, bajo la mirada atenta del presidente Donald Trump

El acuerdo permitirá el uso de modelos de OpenAI, como ChatGPT, dentro de entornos clasificados del Pentágono, tras el fracaso de negociaciones similares entre la agencia y la firma rival Anthropic.

Durante la conversación interna con su equipo, Altman reconoció que la manera en que se presentó el acuerdo había sido “apresurada” y que eso contribuyó a la percepción de que OpenAI había cedido ante presiones externas. Aun así, defendió su decisión, subrayando que el objetivo era evitar una escalada de tensiones entre el gobierno y las empresas tecnológicas.

“Trabajar tan duro para hacer lo correcto y recibir una respuesta tan fuerte—personalmente y profesionalmente—ha sido realmente doloroso”, dijo Altman a sus colaboradores, según fuentes internas.

 

 

Críticas desde dentro y fuera de la empresa

La reacción no se limitó a la prensa y redes sociales: varios investigadores y empleados de OpenAI expresaron públicamente sus reservas. Algunos advirtieron que el contrato inicial permitía el uso de la tecnología para “todos los fines legales”, lo que podía dejar puertas abiertas a aplicaciones problemáticas como la vigilancia masiva o sistemas autónomos de armas sin supervisión humana efectiva.

Esta desconfianza fue acompañada por una presión pública más amplia: críticos de la industria tecnológica denunciaron que el acuerdo podría comprometer los valores éticos que históricamente han guiado a OpenAI, llevando incluso a protestas y a un aumento de descargas de plataformas competidoras como Claude de Anthropic.

 

 

Salvaguardas y ajustes al acuerdo

En respuesta al rechazo masivo, OpenAI y el Pentágono realizaron ajustes al acuerdo. Las partes aclararon que la tecnología no será usada para vigilancia doméstica ni por agencias de inteligencia como la NSA sin un cambio contractual específico, incorporando salvaguardias técnicas y legales adicionales. Altman sostuvo que estos cambios clarifican el compromiso de la empresa con los principios éticos, aunque algunos críticos siguen escépticos sobre su aplicación efectiva.

Para Altman, tener una voz en cómo se usa la IA en escenarios de defensa es clave: argumenta que las empresas tecnológicas deben influir en las decisiones de implantación, en lugar de ceder ese poder exclusivamente a gobiernos o militares. Sin embargo, recalca que “una relación constructiva entre gobierno y compañías desarrolladoras de IA será crítica en los próximos años”, incluso si conlleva tensiones públicas significativas.