El Departamento de Defensa sumó siete proveedores de inteligencia artificial para entornos clasificados, en medio de debates sobre supervisión humana, privacidad y dependencia tecnológica.
Los nuevos acuerdos amplían el uso militar de IA en redes clasificadas
Con una nueva fase de su estrategia tecnológica, el Pentágono anunció acuerdos con siete compañías para incorporar herramientas de inteligencia artificial a sus redes informáticas clasificadas. El Departamento de Defensa indicó que Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection y SpaceX aportarán capacidades para reforzar la toma de decisiones en entornos operativos complejos. Según el organismo, el personal militar ya usa esas funciones por medio de la plataforma oficial GenAI.mil.
La lista excluyó a Anthropic en medio de la guerra público y judicial que mantiene con la administración Trump por las condiciones éticas y de seguridad del uso militar de la inteligencia artificial. El avance del Pentágono en esta área se aceleró en los últimos años. Un informe del Brennan Center for Justice, publicado en marzo, señaló que estas herramientas pueden acortar el tiempo necesario para identificar y atacar objetivos, además de apoyar el mantenimiento de armamento y las cadenas de suministro.
El Departamento de Defensa sostuvo que combatientes, personal civil y contratistas ya aplican estas capacidades en tareas prácticas, con una reducción de plazos de meses a días. También afirmó que la expansión de estas herramientas dará a los combatientes más capacidad para actuar con confianza y proteger a la nación frente a distintas amenazas. En ese marco, Emil Michael, director de tecnología del Pentágono, defendió la decisión de trabajar con varios proveedores en lugar de depender de una sola empresa.
Michael declaró a CNBC que habría sido irresponsable concentrar toda la capacidad en un único socio. Añadió que, cuando el Pentágono comprobó que uno de sus socios no quería colaborar en los términos que buscaba el departamento, optó por asegurar una red con múltiples proveedores. Algunas de las empresas seleccionadas, como Amazon y Microsoft, ya tenían vínculos previos con el aparato militar en entornos clasificados, aunque no quedó claro si estos nuevos acuerdos alteran de forma sustancial esas asociaciones.
Claves de los nuevos contratos del Pentágono con empresas de IA
- Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection y SpaceX integrarán capacidades de IA en entornos clasificados.
- La plataforma GenAI.mil ya permite al personal militar usar funciones de inteligencia artificial en operaciones oficiales.
- Anthropic quedó fuera de la lista en medio de su disputa con la administración Trump y el Pentágono.
- Una cláusula contractual prevé supervisión humana en determinadas misiones, según una fuente con conocimiento del acuerdo.
- El Pentágono defendió una estrategia con múltiples proveedores para evitar la dependencia de una sola compañía.
Las garantías exigidas reabren el debate sobre control y derechos
Al mismo tiempo, el uso de inteligencia artificial en el ámbito militar reactivó temores sobre la privacidad de los estadounidenses y sobre la posibilidad de ceder a las máquinas parte de la selección de objetivos. Una de las empresas contratadas incluyó en su acuerdo con el Pentágono una cláusula de supervisión humana para determinadas misiones, según una persona al tanto del contrato que no tenía autorización para hablar públicamente sobre el contenido del documento.
Ese lenguaje también establecía que las herramientas de inteligencia artificial debían emplearse de forma compatible con los derechos constitucionales y las libertades civiles. Esos puntos coinciden con parte de las exigencias planteadas por Anthropic. Sin embargo, OpenAI ya había indicado antes que obtuvo garantías semejantes en su propio acuerdo con el Departamento de Defensa. La discusión refleja una tensión cada vez más visible entre la utilidad operativa de estas herramientas y los límites legales y éticos de su aplicación.
Anthropic había reclamado garantías para impedir que sus sistemas se usaran en armas totalmente autónomas o en tareas de vigilancia sobre estadounidenses. El secretario de Defensa, Pete Hegseth, respondió que la empresa debía aceptar cualquier uso que el Pentágono considerara legal. Después, la compañía demandó al gobierno cuando el presidente Donald Trump intentó bloquear el uso de su chatbot Claude en agencias federales y cuando Hegseth buscó clasificarla como un riesgo para la cadena de suministro.
Esa figura está orientada a proteger sistemas de seguridad nacional frente a sabotajes de adversarios extranjeros. OpenAI había comunicado en marzo un acuerdo con el Pentágono que, en la práctica, reemplazaba a Anthropic por ChatGPT en entornos clasificados. La empresa confirmó el viernes que se trataba del mismo pacto anunciado entonces. En su declaración, sostuvo que quienes defienden a Estados Unidos deben contar con las mejores herramientas disponibles en el mundo.
Expertos alertan sobre sesgos, entrenamiento y dependencia excesiva
Helen Toner, directora ejecutiva interina del Center for Security and Emerging Technology de la Universidad de Georgetown y exintegrante de la junta directiva de OpenAI, afirmó que estos contratos llegan en un momento de inquietud por una posible dependencia excesiva de la tecnología en combate. Señaló que gran parte de la guerra moderna se desarrolla en centros de mando, donde personas frente a monitores deben resolver decisiones complejas en situaciones confusas y cambiantes a gran velocidad.
En ese contexto, Toner explicó que los sistemas de inteligencia artificial pueden servir para resumir información o analizar transmisiones de vigilancia con el fin de detectar objetivos potenciales. Sin embargo, sostuvo que siguen abiertas las discusiones sobre el nivel adecuado de intervención humana, el riesgo aceptable y la preparación necesaria para operar estas herramientas. A su juicio, el reto consiste en desplegarlas con rapidez y eficacia sin descuidar la capacitación de los operadores ni fomentar una confianza excesiva.
Las dudas sobre el uso militar de la inteligencia artificial cobraron fuerza durante la guerra de Israel contra terroristas en Gaza y Líbano, cuando grandes empresas tecnológicas de Estados Unidos reforzaron de manera discreta la capacidad israelí para rastrear objetivos. El aumento del número de civiles muertos alimentó el temor de que estas herramientas contribuyan a la muerte de personas inocentes. Esa preocupación ha consolidado el debate sobre los límites de automatización en contextos de guerra.
Según Toner, en muchos casos las fuerzas armadas aplican la inteligencia artificial a tareas parecidas a las del ámbito civil. Entre ellas figuran anticipar cuándo un helicóptero necesita mantenimiento, organizar con mayor eficiencia el traslado de tropas y equipos, o ayudar a distinguir si los vehículos detectados por un dron son civiles o militares. Aun así, la especialista advirtió sobre el sesgo de automatización, un fenómeno que lleva a muchas personas a atribuir a las máquinas un rendimiento superior al real.