La mañana del 28 de febrero, decenas de niñas y docentes ingresaron a la escuela primaria Shajareh Tayyebeh de Minab, una ciudad de más de 70.000 habitantes en el sur de Irán. Era sábado, el primer día de la semana laboral en ese país. También el primer día de la operación «Furia Épica», como denominó el Pentágono a la ofensiva que lanzó contra Irán junto a Israel (Tel Aviv, por su parte, la llamó «Rugido del León»).
![]() |
| Protesta ante la sede de Palantir, en Nueva York, por su colaboración con el ICE. |
Los misiles Tomahawk no son cualquier misil. Pueden cubrir más de 2.000 kilómetros de forma autónoma, a velocidades cercanas a los 880 km/h, e impactar en su objetivo con un margen de error de pocos metros.
La escuela estaba ubicada en un edificio que hace una década fue separado de una base de las fuerzas navales del Cuerpo de Guardianes mediante un muro. Dicha base también fue golpeada en los ataques del 28 de febrero. Por ello, es probable que EE. UU. identificara esa base como objetivo militar pero que los mapas utilizados para esa identificación no estuvieran actualizados. Pero ¿quién es responsable de ese error en una guerra en la que se combate esencialmente con inteligencia artificial?
La cadena de muerte
En términos militares, con kill chain (literalmente, ‘cadena de muerte’) nos referimos a la secuencia de acciones que ocurre entre la identificación de un objetivo, la decisión de atacar y el despliegue del ataque. Durante casi un siglo, los ejércitos han intentado comprimir la kill chain todo lo posible, algo que permitiría atacar al enemigo de forma más rápida y eficaz.
Este deseo se convirtió en necesidad por primera vez durante la Guerra del Golfo del año 1991, cuando los iraquíes emplearon lanzadores móviles de misiles capaces de desplazarse varios kilómetros antes de que los estadounidenses pudieran coordinar una respuesta. Las viejas técnicas analógicas, en las que los analistas tenían que revisar manualmente mapas, grabaciones y otros datos, no servían. Se necesitaban máquinas capaces de volar tan bajo como para esquivar los radares, identificar un objetivo y eliminarlo en minutos. En pocas palabras, drones armados: vehículos capaces de volar (y atacar) sin tripulación a bordo.
El primer ejemplo llegó en 2001, cuando el capitán de la Fuerza Aérea de EE. UU. Scott Swanson y el sargento mayor Jeff A. Gunny Guay intentaron matar, sin éxito, al mulá Omar, líder de los talibanes y aliado de Osama Bin Laden, mientras controlaban un dron armado Predator desde Langley (Virginia), a miles de kilómetros de distancia. A pesar de que la misión no obtuvo los resultados esperados, los drones Predator y el más pesado Reaper en poco tiempo se convirtieron en instrumentos claves de las misiones militares tanto de EE. UU. como de Israel. Su uso se amplió enormemente durante la presidencia de Barack Obama, llegando incluso a ser considerados por algunos más «humanos» que otro tipo de ataques.«La pregunta es si los drones nos tentarán a hacer cosas incorrectas. Pero no parece que sea así, porque tenemos casos en los que los drones se usaron de manera justa, y parece que, en realidad, mejoran nuestra capacidad de actuar con justicia», dijo en 2012 a The Guardian Bradley Strawser, filósofo y por entonces profesor en la Universidad Naval de Monterrey. «Literalmente cada acción que realizan queda registrada. Ante una decisión difícil, los operadores pueden incluso tomarse su tiempo y llamar a otras personas a la sala. Hay más margen para los controles y la supervisión», argumentó.
Pero con el aumento de los datos, poco a poco los controles y supervisión se volvieron cada vez más complejos. «En un futuro no muy lejano, vamos a encontrarnos nadando en sensores y ahogándonos en datos», aventuró en 2010 un alto cargo de inteligencia de la Fuerza Aérea estadounidense. Y eso fue lo que pasó. La difusión de redes sociales, drones y tecnologías de vigilancia masiva aumentaron enormemente la disponibilidad de datos en manos de los ejércitos para identificar y rastrear objetivos. Eso llevó a un cuello de botella. ¿Quién podía analizar tanta información? La inteligencia artificial trajo la respuesta.
Guerra sin piloto
«El objetivo de los sistemas de IA es liberar al ser humano del procesamiento cognitivo; hacer las cosas más rápidas y eficientes», comenta a La Marea Elke Schwarz, profesora de Teoría Política en la Universidad Queen Mary de Londres y autora del libro Death Machines: The Ethics of Violent Technologies (2018). Schwarz lleva años estudiando las consecuencias reales y potenciales del empeño humano por automatizar al máximo la práctica de matarse unos a otros.Su investigación comenzó a principios de la década de 2010, años antes de la invasión rusa de Ucrania, una guerra que se ha convertido en un campo de experimentación para el uso de algoritmos e inteligencia artificial en batalla. «Muchas empresas emergentes llevaron sus nuevas tecnologías al conflicto», señala Schwarz.
Muy pronto, la asimetría del conflicto en Ucrania trajo el uso masivo de drones teledirigidos. A diferencia de los complejos y costosos sistemas Predator, estos eran instrumentos baratos que, con una inversión de apenas 500 dólares y comandados de forma remota, eran capaces de destruir tanques. No obstante, se revelaron vulnerables ante la guerra electrónica, es decir, ataques que interrumpen la comunicación entre el dron y su piloto. Esto propició que se impulsara el desarrollo de aeronaves con capacidades autónomas de vuelo y ataque.
Los drones autónomos están dotados de software capaz de transportar explosivos a lo largo de cientos de kilómetros y localizar objetivos. Otro tipo de drones, de cuatro hélices, se dotaron de inteligencia artificial para atacar a soldados rusos sin intervención humana cuando las comunicaciones fallaran. El siguiente paso fueron los enjambres de drones, capaces de perpetrar ataques masivos sin necesidad de contar con decenas de operadores.
Entre las innovaciones desplegadas en Ucrania, destaca el envío, en febrero de 2026, de dos robots humanoides Phantom MK-1 para cumplir funciones descritas oficialmente como «de apoyo» y no de combate. Según la startup californiana Foundation que los ha creado, este modelo sería el primer autómata diseñado específicamente para zonas de conflicto armado. «Lo que estamos viendo ahora es el primer intento torpe de cómo los robots van a librar nuestras guerras», declaró a la revista Time Mike LeBlanc, cofundador de la empresa y veterano de los Marines con experiencia en Irak y Afganistán. «Pero, en realidad, solo están esperando a que empiece el espectáculo», añadió.Al margen del posible desarrollo de estos robots, en la actualidad las decisiones bélicas ya pasan por las principales empresas de inteligencia artificial, las mismas que diseñan los chatbots (asistentes conversacionales de IA) que cada día usan millones de personas para corregir correos electrónicos.
Decisiones de algoritmos
El libro The Making of the Atomic Bomb, de Richard Rhodes, publicado en 1986 y ganador del premio Pulitzer, se ha convertido en una de las lecturas más populares en las oficinas de Anthropic, la empresa creadora del chatbot Claude. Como escribía Charlie Warzel en 2023 en el medio The Atlantic, la obra se ha convertido en una suerte de texto fundacional para cierto tipo de investigadores en IA: los que creen que sus creaciones podrían tener el poder de matarnos a todos.En febrero de este año, el secretario de Defensa estadounidense Pete Hegseth exigió a Anthropic acceso sin restricciones a sus sistemas de inteligencia artificial para cualquier uso militar. La respuesta del consejero delegado, Dario Amodei, fue una negativa pública: «En conciencia, no podemos aceptar su petición». Hegseth contestó designando a Anthropic como «riesgo para la cadena de suministro», una calificación reservada habitualmente a empresas vinculadas con gobiernos adversarios, como la china Huawei o la rusa Kaspersky.
En respuesta, Anthropic demandó al Gobierno, que por su cuenta comenzó el proceso de reemplazar Claude con los modelos de empresas que supuestamente aceptaron sus condiciones, como ChatGPT, de OpenAI, y Gemini, de Google. Hasta ese momento, la colaboración entre esta empresa –fundada por exmiembros de OpenAI– y el Departamento de Defensa había sido estrecha.
El Mando Central de EE. UU. (CENTCOM) habría utilizado una versión clasificada de Claude para asistir en evaluaciones de inteligencia, identificación de objetivos y simulación de escenarios de combate durante operaciones militares en Irán. Según reveló The Wall Street Journal, Claude también habría sido empleado en la operación militar estadounidense que condujo a la captura del presidente venezolano Nicolás Maduro en enero de este año.
Además, Anthropic ya se había asociado con Palantir Technologies, el gigante de análisis de datos cofundado por Peter Thiel y uno de los principales contratistas tecnológicos del Pentágono. En particular, Claude sería clave para el funcionamiento del sistema Maven Smart, diseñado por Palantir y supuestamente utilizado por el Ejército de EE. UU. en su guerra en Irán. Maven es capaz de procesar volúmenes enormes de datos clasificados procedentes de satélites, vigilancia y otras fuentes de inteligencia, y generar a partir de ellos información operativa. Según Hegseth, durante las primeras 24 horas de su ofensiva, EE. UU. atacó más de mil objetivos.«Sugieren miles de objetivos y luego tienes un equipo reducido de personas para comprobarlos o validarlos, pero tienen que hacerlo a toda velocidad», subraya Schwarz a La Marea. «Ocurre tan rápido que tenemos que preguntarnos si puede haber una supervisión significativa o si el humano simplemente va diciendo “sí, no, sí, no”, absorbido por la lógica funcional del sistema de IA, por la lógica de la máquina».
Según una investigación publicada en el año 2024 por la revista israelí-palestina +972 Magazine, Israel empleó el sistema Lavender en Gaza para analizar datos de vigilancia masiva de casi la totalidad de los 2,3 millones de habitantes de la Franja. El sistema asigna a cada individuo una puntuación del 1 al 100 según su probabilidad de ser miliciano. La investigación indica que la supervisión humana se reducía con frecuencia a una validación pro forma de aproximadamente 20 segundos por objetivo, tratando en la práctica la sugerencia de la máquina como una decisión firme.
Al comprobarse que Lavender supuestamente alcanzaba un 90% de precisión en la identificación de afiliaciones con Hamás, el Ejército autorizó su uso generalizado. A partir de ese momento, según las fuentes de +972 Magazine, si Lavender determinaba que un individuo era miliciano, los operadores debían tratar esa decisión como una orden, sin necesidad de verificar de forma independiente el razonamiento algorítmico ni examinar los datos en los que se basaba.«Para hacer posible la violencia de masas es necesario deshumanizar al enemigo», concluye Schwarz. Y para eso, la inteligencia artificial ofrece grandes oportunidades. «Cuanto mayor es la distancia entre la aplicación de la fuerza y sus efectos, mayor es también la distancia emocional y moral que se genera».
A diferencia de los sistemas de armas convencionales, fabricados por empresas como Lockheed Martin y sujetos a marcos regulatorios, el uso militar de la inteligencia artificial carece de regulación.
Frenar la máquina
En uno de los muchos cafés de moda que hay en Brooklyn, frente a un capuccino, Peter Asaro admite que negociar un tratado para regular las armas con altos niveles de automatización es una tarea titánica en el laberíntico sistema de la ONU. Este filósofo de la ciencia, la tecnología y los medios digitales, ya atendió a La Marea en octubre de 2023 en la sede de Naciones Unidas.Hoy, Asaro, vicepresidente del Comité Internacional para el Control de Armas Robóticas (ICRAC) y portavoz de la campaña Stop Killer Robots, se muestra esperanzado con el estado actual del borrador para negociar un marco legal común en las Naciones Unidas que permita ejercer control sobre las armas con altos niveles de automatización.
Tras varios intentos fallidos de prohibir por completo el uso de armas autónomas, el estado actual de las negociaciones se centra en regular su empleo y definir en qué contextos son aceptables. Es el caso, por ejemplo, de los sistemas de defensa antimisiles, que deben operar con inmediatez para neutralizar amenazas masivas. El debate de fondo radica en hasta qué punto es imprescindible mantener a un humano en el proceso y qué nivel de intervención se considera «significativo». Por ello, las discusiones se centran en la definición de un «control humano apropiado al contexto».
«La idea es que “apropiado” no sea un término vacío», matiza Asaro. «Exige algún tipo de valoración humana contextual que confirme que el sistema opera en un entorno conocido y que es capaz de hacerlo correctamente».
Estos esfuerzos regulatorios chocan con la oposición de potencias muy activas en el desarrollo armamentístico, convencidas de que la IA les otorgará una ventaja táctica decisiva. Países como Estados Unidos, Rusia, China, Israel, Corea del Sur y Turquía prefieren sustituir un tratado vinculante por meras «directrices» o «mejores prácticas».
Se espera que en noviembre de 2026 las Naciones Unidas voten el inicio oficial de las negociaciones. De ser así, el tratado formal podría ver la luz en 2027, seguido de un arduo proceso de ratificación global que seguramente intentarán torpedear los países detractores. Sin embargo, Asaro recuerda que no es una situación inédita y que la historia demuestra que el progreso es posible frente a la resistencia de las grandes potencias.En el caso de las armas nucleares, un tratado de prohibición ha logrado establecer normas claras. Aunque las potencias nucleares no lo firmaron, el respaldo de la mayor parte del mundo consolidó una norma internacional que declara estas armas «inmorales e ilegales». Del mismo modo, aunque Siria nunca firmó el tratado sobre armas químicas, la comunidad internacional la hizo responsable de su uso. «Esperamos lograr algo similar. Como mínimo que podamos restringir el uso de estos sistemas y alejar la IA de las aplicaciones bélicas más peligrosas que podamos imaginar», concluye Asaro.
Así, al menos, la responsabilidad de las muertes de civiles podrá
seguir siendo identificable y no quedar sepultada tras algoritmos
indescifrables.










Comentarios
Publicar un comentario