La guerra del algoritmo: cuando el objetivo ya no es el ejército, sino la persona

IMAGE: A sniper’s high-tech scope locks onto a political figure walking through a crowded city street, symbolizing AI-driven targeted warfare

Lo que estamos viendo y viviendo estos días no es simplemente una guerra más tecnológica. Es algo más profundo y más inquietante: un modelo de conflicto en el que el objetivo prioritario deja de ser destruir unidades militares o conquistar territorio, para pasar a ser el identificar, localizar y eliminar a personas concretas dentro de la cadena de mando, del aparato científico o del sistema político del adversario.

La novedad no está en la «decapitación» como idea, que lleva décadas en la doctrina militar y de inteligencia, sino en la posibilidad de industrializarla mediante datos, sensores, vigilancia ubicua y sistemas algorítmicos capaces de cruzar información a una velocidad y a una escala nunca vistas.

Gaza ha sido el laboratorio más visible de esa evolución. La investigación de Associated Press sobre el uso de modelos de IA y servicios cloud por parte del ejército israelí describe cómo esas herramientas sirven para procesar inteligencia, comunicaciones interceptadas y vigilancia con el fin de generar objetivos «más rápido». No es un detalle menor: cuando la infraestructura comercial de empresas como Microsoft, Google, Amazon u OpenAI entra en el ciclo operativo de una guerra, la distancia entre Silicon Valley y el campo de batalla deja de ser conceptual para convertirse en puramente contractual. Human Rights Watch ha ido aún más lejos al documentar el uso de herramientas digitales como Lavender, The Gospel o Where’s Daddy?, y advertir que trabajan con datos defectuosos e inferencias inexactas que pueden agravar el riesgo para la población civil.

La otra pieza clave es la identificación individual. La expansión de sistemas de reconocimiento facial y biometría en Gaza, explicada por The Guardian a partir de reportajes previos y entrevistas con expertos en derechos humanos, encaja perfectamente en esta lógica: ya no se trata solo de vigilar un territorio, sino de convertir a cada cuerpo que lo cruza en un dato explotable. Cuando una guerra aprende a ver rostros, a correlacionarlos con historiales de llamadas, desplazamientos, parentescos o patrones de comportamiento, el enemigo deja de ser una fuerza y pasa a ser una identidad concreta. El campo de batalla ya no está únicamente en el mapa: está en la base de datos.

Líbano mostró otra derivada de esa misma transformación: la capacidad de penetrar cadenas de suministro, redes de comunicaciones y circuitos de confianza del adversario hasta convertirlos en armas. El caso de los pagers de Hezbollah, posteriormente documentado por AP, no fue solo una operación espectacular, sino la demostración de que la superioridad tecnológica contemporánea consiste también en contaminar el ecosistema material del enemigo. No hace falta imaginar una distopía de cámaras hackeadas en cada esquina para entender la lógica: basta con una combinación muy sofisticada de inteligencia, infiltración, vigilancia y capacidad de ataque preciso para convertir las rutinas del adversario en vulnerabilidades letales.

Irán aporta el siguiente escalón: la extensión de esa lógica de decapitación al corazón de un Estado. Associated Press resumió el impacto de los ataques israelíes de junio de 2025 señalando cómo diezmaron a la cúpula de la Guardia Revolucionaria y golpearon también a científicos y a infraestructuras críticas. Más recientemente, la propia agencia ha advertido en otro análisis que la eliminación sistemática de líderes puede ofrecer éxitos tácticos inmediatos, pero rara vez resuelve el conflicto de fondo y a menudo termina reforzando dinámicas de radicalización, martirio o sucesión por figuras aún más extremas. Esa es la paradoja central de esta guerra de precisión: técnicamente impresiona, estratégicamente no siempre funciona.

La consecuencia más importante es que el tiempo de la guerra se comprime. Si antes detectar, validar y atacar un objetivo exigía procesos relativamente lentos, ahora la inteligencia artificial promete reducir todo eso a una secuencia acelerada de ingestión de datos, correlación, recomendación y acción. El ICRC lo ha formulado con claridad: el problema ya no son solo las armas autónomas, sino el despliegue apresurado de sistemas de inteligencia artificial para apoyar la selección y el ataque de objetivos. Y SIPRI insiste en que estos sistemas de apoyo moldean el papel humano en distintas fases del ciclo de targeting y plantean lagunas regulatorias muy serias. Dicho de otro modo: la decisión final puede seguir siendo humana, pero el entorno en el que se toma esa decisión está cada vez más preconfigurado por máquinas.

Eso tiene efectos políticos evidentes. Una vez que los dirigentes entienden que pueden convertirse en objetivos personales en cualquier momento, la tentación será blindarse, ocultarse, desconectarse y delegar en círculos cada vez más reducidos y opacos. No necesariamente se consigue más disuasión: muchas veces se consigue más paranoia. Y la paranoia, en política y en guerra, rara vez conduce a la moderación. Brookings advierte precisamente de los riesgos de crisis militares aceleradas por inteligencia artificial y de la necesidad urgente de mecanismos de gobernanza que reduzcan la probabilidad de daño a civiles y de escaladas difíciles de controlar. Cuanto más rápido se mueve el sistema, menos espacio queda para la duda, la comprobación y la responsabilidad.

Y hay una segunda consecuencia, quizá todavía más importante: la proliferación. Hoy estas campañas parecen asociadas a actores con ecosistemas de inteligencia, superioridad aérea, acceso privilegiado a satélites, nube y analítica avanzada como los Estados Unidos e Israel. Pero la tecnología que las hace posibles es, en gran medida, comercial, modular y cada vez más accesible, por lo que la simple dinámica de difusión tecnológica nos lleva a que la ventaja no permanezca mucho tiempo en manos de unos pocos. La normalización de esta forma de guerra puede empujar al mundo hacia un escenario en el que cada vez más Estados, y eventualmente actores no estatales como grupos terroristas, intenten convertir a las personas en coordenadas y a las coordenadas en blancos.

Bajo los lucrativos contratos con gobiernos de las compañías tecnológicas subyace una lógica muy fácil de entender de utilización cada vez más habitual de armas cada vez más capaces de eliminar a personas, de decapitar regímenes y de convertir el magnicidio en un simple tiro al blanco. Y cuando eso ocurra, la guerra dejará definitivamente de ser una disputa por el territorio para convertirse en una cacería sistemática de identidades. Ese es el verdadero salto histórico que tenemos delante.

Liked Liked