El director ejecutivo de OpenAI, Sam Altman, afirmó que las decisiones sobre cómo utilizar inteligencia artificial en el ámbito militar deben ser tomadas por gobiernos democráticamente electos y no por empresas tecnológicas.
El planteo fue realizado durante su participación en la Morgan Stanley Tech, Media and Telecom Conference, celebrada en San Francisco, donde el ejecutivo abordó el creciente debate global sobre el papel de la IA en seguridad nacional y defensa.
Según Altman, las compañías que desarrollan modelos de inteligencia artificial no deberían convertirse en árbitros de las reglas que determinan su uso militar, un rol que —a su juicio— corresponde al sistema político. “Tenemos que confiar en el proceso democrático”, señaló durante el evento, al remarcar que aunque ese proceso pueda ser imperfecto, “es mejor que cualquier otro sistema” para definir los límites éticos y legales de tecnologías emergentes.

Las declaraciones del CEO de OpenAI se producen en un momento particularmente sensible para la industria de la inteligencia artificial. La compañía firmó recientemente un acuerdo con el Departamento de Defensa de Estados Unidos para permitir el uso de sus modelos en entornos clasificados y aplicaciones militares, un movimiento que generó críticas dentro y fuera del sector tecnológico.
El acuerdo se concretó después de que el Pentágono enfrentara dificultades para cerrar un contrato similar con la empresa Anthropic, que había establecido restricciones más estrictas sobre el uso militar de sus sistemas de IA. Altman reconoció que el anuncio del acuerdo generó reacciones negativas y cuestionamientos internos, e incluso admitió ante empleados que la forma en que se comunicó el contrato pudo parecer “oportunista y desprolija”.
Uno de los puntos más sensibles del debate gira en torno a la posibilidad de que tecnologías de IA sean utilizadas para vigilancia masiva o recolección de datos sobre ciudadanos estadounidenses.

En su intervención en la conferencia, Altman remarcó que la protección de las libertades civiles debe mantenerse incluso en la era de la inteligencia artificial, y sostuvo que las leyes actuales deben adaptarse al nuevo contexto tecnológico.
El CEO de OpenAI advirtió que la definición de qué constituye vigilancia estatal legítima “tendrá que evolucionar con la tecnología”, especialmente a medida que los sistemas de IA se vuelvan más capaces y ubiquos.
Durante la última década, compañías de Silicon Valley mostraron reticencia a colaborar con proyectos militares, en parte por presiones internas de empleados y activistas. Sin embargo, el rápido avance de la inteligencia artificial y la competencia geopolítica con China están empujando a Washington a integrar cada vez más tecnologías comerciales en su estrategia de defensa.

En ese contexto, OpenAI aparece como uno de los actores clave en el nuevo ecosistema de tecnología dual, donde herramientas desarrolladas para el mercado civil —como los modelos generativos— también pueden ser utilizadas para planificación militar, análisis de inteligencia o ciberseguridad.
La postura de Altman introduce una discusión central en la gobernanza de la inteligencia artificial: quién debe definir los límites del uso de estas tecnologías. Mientras algunos sectores sostienen que las empresas deberían autoimponerse restricciones, el CEO de OpenAI propone un enfoque distinto: que las reglas surjan de marcos regulatorios definidos por gobiernos y legisladores, capaces de equilibrar seguridad nacional, innovación tecnológica y derechos civiles.
El debate recién comienza, pero el mensaje de Altman marca una posición clara: la gobernanza de la IA —especialmente en el terreno militar— no debería quedar en manos de las empresas que la desarrollan, sino de las instituciones democráticas que representan a la sociedad.