La colaboración entre el Pentágono y desarrolladores de IA como OpenAI y Anthropic está transformando la forma en que las fuerzas armadas de Estados Unidos operan, utilizando inteligencia artificial para agilizar procesos estratégicos sin delegar decisiones de vida o muerte exclusivamente a máquinas.
¿Qué es la «cadena de muerte» y cómo la está cambiando la IA?
La «cadena de muerte» se refiere al proceso militar que incluye identificar, rastrear y neutralizar amenazas mediante sensores, plataformas y armas. Según Radha Plumb, Directora Digital y de IA del Departamento de Defensa, las herramientas de IA están demostrando ser valiosas, particularmente en las fases de planificación y estrategia, al permitir:
- Evaluación más rápida de amenazas.
- Simulación de escenarios estratégicos.
- Toma de decisiones informada para proteger a las fuerzas armadas.
Plumb destacó que estas tecnologías están diseñadas para asistir, no reemplazar, a los humanos:
«Siempre habrá humanos involucrados en la decisión de emplear la fuerza».
IA en defensa: colaboración con Silicon Valley
El vínculo entre el Pentágono y empresas tecnológicas es reciente, pero ha crecido rápidamente. En 2024, compañías como Meta, OpenAI y Anthropic ajustaron sus políticas de uso, permitiendo la implementación de sus modelos en defensa. Entre los acuerdos más destacados están:
- Meta, en alianza con Lockheed Martin y Booz Allen, llevó su modelo Llama al sector defensa.
- Anthropic, en colaboración con Palantir, introdujo sus modelos generativos en tareas de análisis estratégico.
- OpenAI firmó un acuerdo con Anduril, una empresa de tecnología militar avanzada.
A pesar de estas colaboraciones, muchas políticas de uso de estas empresas aún prohíben explícitamente que sus tecnologías sean utilizadas para causar daño humano.
¿IA autónoma en decisiones de vida o muerte?
El debate sobre el uso de sistemas completamente autónomos en armas está en curso. Aunque existen precedentes de sistemas automatizados, como las torretas CIWS, el Pentágono afirma que no opera armas sin un humano en la toma de decisiones. Según Plumb:
«Siempre habrá una colaboración entre humanos y máquinas. La idea de robots tomando decisiones de forma independiente es demasiado simplista».
Este enfoque refuerza el compromiso ético y de confiabilidad del Departamento de Defensa, asegurando que la tecnología sea utilizada bajo control humano directo.
Tensión entre ética y utilidad
El uso de IA en defensa ha sido criticado dentro de la comunidad tecnológica. En 2024, protestas en Amazon y Google resultaron en despidos debido a contratos militares. Sin embargo, algunos investigadores, como Evan Hubinger de Anthropic, argumentan que trabajar con los militares es clave para mitigar riesgos catastróficos y garantizar un uso ético de los modelos de IA.
¿Qué sigue?
Con asociaciones estratégicas y herramientas avanzadas, el Pentágono está redefiniendo el uso de inteligencia artificial en defensa. Este enfoque podría empujar a Silicon Valley a relajar aún más sus políticas, allanando el camino para aplicaciones militares más amplias y potenciadas. Sin embargo, el debate ético sobre los límites del uso de IA en decisiones de vida o muerte sigue siendo un tema crucial.
Para más noticias del mundo, cultura geek & tech, sigue en: GeekandLife.com.mx | Si quieres noticias Anime, Videojuegos y diversión, visita MultiAnime.com.mx

Fuente: TechCrunch