La automatización de la guerra ya está en marcha. Algoritmos que seleccionan objetivos, aceleran ataques y diluyen responsabilidades operan hoy en conflictos reales. En Guerra e IA, Radamés Molina Montes y Javier del Puerto advierten que este modelo no sólo afecta a Irán, Gaza o Ucrania: se despliega desde empresas privadas estadounidenses bajo el control de un liderazgo político errático y potencialmente peligroso.
(Por Cecilia Miglio)

La inteligencia artificial ha dejado de ser un objeto de reflexión ética para convertirse en una infraestructura operativa de la guerra contemporánea. Esa es la premisa central de Guerra e IA: el campo de batalla algorítmico, el nuevo libro de Radamés Molina Montes y Javier del Puerto, un trabajo que examina cómo los sistemas algorítmicos están alterando la toma de decisiones letales y reconfigurando nociones clásicas como la responsabilidad política, moral y militar.
Radamés Molina Montes es historiador y filósofo. Nacido en Cuba, estudió Historia en La Habana y Filosofía en Barcelona. Participó en la edición interactiva del Tractatus Logico-Philosophicus de Ludwig Wittgenstein en el Archivo Wittgenstein de Cambridge, trabajó en la editorial Paidós y fundó Linkgua, un sello con un amplio catálogo en lengua española. Su trabajo se sitúa en la intersección entre lenguaje, conciencia y tecnología.
Javier del Puerto es escritor y tecnólogo. Nacido en Madrid, estudió Filosofía e Informática, trabajó durante años en China y en distintos países de Asia con multinacionales y posteriormente se instaló en Barcelona para cursar un máster en edición digital, donde lanzó Crowdreading, una plataforma de lectura digital. En los últimos años ha colaborado con editoriales como Bloomsbury, Faber & Faber y Planeta. Actualmente reside en Londres.
Ambos cofundaron Kwalia, una editorial centrada en el análisis cultural, filosófico y político de la inteligencia artificial. Entre sus libros anteriores figuran Mindkind y Declaración Universal de los Derechos de la IA, obras que exploran las implicancias éticas y jurídicas de la inteligencia sintética. Guerra e IA forma parte de la serie Nuevas Ciudadanías, aunque esta vez desplaza el foco hacia un terreno más inmediato y perturbador: la incorporación de la IA en los sistemas contemporáneos de guerra.

Del dron al algoritmo
“El punto de partida fue el seguimiento cada vez más intenso de la guerra de drones en Ucrania y Gaza”, explican los autores. En un primer momento, la atención se centraba en la transformación visible del combate: la presencia permanente de drones, la vigilancia aérea constante y la exposición del cuerpo en el campo de batalla.
Sin embargo, pronto comprendieron que el cambio decisivo no estaba únicamente en el armamento, sino en la capa invisible que lo gobierna.
“Muy pronto vimos que el cambio más profundo no estaba solo en el hardware, sino en la capa algorítmica que empezaba a gobernar funciones decisivas: navegación autónoma, priorización de amenazas, selección de objetivos, reducción o anulación del margen de supervisión humana”.
Casos como el del sistema israelí Lavender —una plataforma de inteligencia artificial utilizada para generar listas automatizadas de objetivos—, documentado en investigaciones periodísticas de 2024, marcaron un punto de inflexión.
“Ya no hablábamos de escenarios teóricos, sino de sistemas capaces de generar listas masivas de objetivos y de comprimir la intervención humana en ventanas de validación mínimas”.
Gaza y la disolución de la responsabilidad
La escalada de violencia en Palestina a partir de 2023 tuvo un impacto determinante en la investigación.
“Lo que más nos impresionó no fue solo la magnitud del daño, sino el modo en que la automatización parecía alterar la estructura misma de la responsabilidad”.
Cuando la intervención humana se reduce a una ratificación acelerada, la pregunta deja de ser únicamente quién muere. También pasa a ser quién responde por esa muerte.
“¿El operador? ¿El mando? ¿El desarrollador del sistema? ¿La cadena institucional que autorizó su despliegue? Lo inquietante es que no hay una respuesta clara, y esa falta de claridad no es un accidente: forma parte del diseño de estos entornos de decisión acelerada”.
El complejo militar de Silicio
En su investigación, los autores describen lo que denominan el “complejo militar de Silicio”, un ecosistema en el que la frontera entre empresa tecnológica y contratista de defensa se ha vuelto cada vez más difusa.
“Compañías como Palantir, Anduril o Shield AI no operan ya como proveedores externos de piezas puntuales, sino como actores implicados en el rediseño del entorno operativo mismo”.
(Palantir es una empresa estadounidense especializada en análisis masivo de datos utilizada por agencias militares y de inteligencia; Anduril desarrolla sistemas autónomos de defensa y vigilancia; Shield AI diseña software de inteligencia artificial para drones y aeronaves militares).
Estas compañías introducen una lógica propia del mundo del software —iteración rápida, actualización constante, desarrollo ágil— en un ámbito que históricamente había funcionado con ciclos mucho más lentos de adquisición militar. El resultado es una dependencia creciente de los ejércitos respecto de actores privados capaces de modificar sistemas en semanas, no en años.
Velocidad contra juicio moral
“La lógica militar de estos sistemas consiste en identificar más rápido, procesar más rápido, decidir más rápido y golpear más rápido que el adversario”.
Pero el juicio moral humano no opera a velocidad de máquina.
“No se puede evaluar con seriedad la distinción entre combatiente y civil, la proporcionalidad de un ataque o la necesidad militar de una acción en ventanas cada vez más comprimidas por la automatización”.
El problema, señalan, no es sólo tecnológico. Es también temporal: la aceleración de la guerra empieza a superar la capacidad humana de deliberar.
El riesgo ya no es ajeno
Uno de los pasajes más directos del libro apunta a la falsa sensación de distancia con la que muchas sociedades observan estos conflictos.
“Esto que observamos como algo ajeno, que sólo le ocurre al ‘otro’, sea ruso, ucraniano, palestino o iraní, mañana puede apuntarnos a nosotros”.
Y agregan, sin matices:
“Más cuando el país más poderoso del mundo está en manos de un octogenario que hoy dice que quiere comprar (o invadir) Groenlandia, mañana captura a Maduro, pasado ataca Irán, al otro se caga en los pantalones y al otro qué sabe nadie qué se le meterá en la cabeza”.
La advertencia se extiende al dominio tecnológico cotidiano.
“No sólo le preguntan a la IA dónde va el acento en choripán, sino cómo hacer una declaración de amor o de la renta, cómo freír un huevo, cómo despedir a un tercio de tu plantilla, dónde invertir tus ahorros… todo”.
“Estamos externalizando nuestro pensamiento a esas máquinas, y esas máquinas son propiedad privada de una empresa que quiere beneficios, no el bien de la humanidad, y están bajo el control de un gobierno que tiene sus propios intereses, no los de toda la humanidad. No olvidemos todo eso”.
Lo que viene
Molina y del Puerto continúan desarrollando la serie Nuevas Ciudadanías, dedicada a explorar las transformaciones culturales, políticas y cognitivas asociadas a la inteligencia artificial.
Su próximo libro, Sintropología. Una nueva ciencia para la era de las máquinas, propondrá estudiar a la inteligencia artificial de un modo análogo a como la antropología estudia al ser humano.
“Lo que intentamos hacer, libro a libro, es cartografiar las mutaciones de lo humano cuando la inteligencia artificial deja de ser una herramienta periférica y pasa a ocupar una posición estructural en la cultura contemporánea”.
Guerra e IA: el campo de batalla algorítmico fue publicado originalmente en inglés y acaba de aparecer también en español. La obra se encuentra disponible en formato digital y audiolibro en plataformas internacionales de distribución.