IA en la Guerra: Cómo la Inteligencia Artificial Está Cambiando los Conflictos en Irán y Ucrania

Del campo de batalla al algoritmo: la inteligencia artificial ya selecciona objetivos, coordina ataques y redefine las reglas de la guerra moderna

Hasta hace pocos años, la inteligencia artificial era una herramienta del mundo empresarial: optimizaba rutas logísticas, recomendaba películas y detectaba fraudes bancarios. En 2026, esa misma tecnología selecciona objetivos militares en tiempo real, coordina enjambres de drones autónomos y ha convertido semanas de planificación bélica en operaciones ejecutadas en cuestión de horas. Lo que antes era ciencia ficción hoy ocurre sobre los cielos de Ucrania y las ciudades de Irán.

Los conflictos armados modernos han dejado de librase únicamente con soldados, tanques y misiles. La batalla también se disputa en servidores, algoritmos y modelos de aprendizaje automático. Los ejércitos que mejor integren la IA en sus operaciones no solo ganarán ventaja táctica, también redefinirán para siempre la naturaleza de la guerra. Y esa transformación ya está ocurriendo, con consecuencias éticas, humanas y geopolíticas que el mundo apenas empieza a comprender.

El Proyecto Maven: Cuando una IA Decide los Objetivos de un Ataque

En marzo de 2026, durante la operación militar estadounidense contra Irán, el mundo presenció por primera vez el uso de inteligencia artificial como elemento central en la selección de objetivos bélicos a gran escala. El Proyecto Maven, la iniciativa de guerra algorítmica del Pentágono gestionada por la Agencia Nacional de Inteligencia Geoespacial, permitió atacar más de mil objetivos en las primeras 48 horas del operativo, una cifra que en conflictos anteriores habría requerido semanas de planificación humana.

Cómo funciona el Proyecto Maven en combate:

El sistema analiza imágenes de drones y satélites para detectar posibles objetivos militares y marcarlos automáticamente en mapas operativos, generando listas de blancos priorizadas por algoritmo que, según el Departamento de Defensa, son revisadas posteriormente por personal humano.

Durante los ataques a Irán, la combinación de Maven con el modelo de lenguaje Claude de Anthropic emitió coordenadas precisas de ubicación y priorizó objetivos según su importancia estratégica. La herramienta aceleró el ritmo operativo y redujo la capacidad de contraataque iraní convirtiendo semanas de planificación en operaciones en tiempo real.

El relator de la ONU Balakrishnan Rajagopal confirmó que una plataforma de IA fue usada para seleccionar objetivos y coordenadas geográficas, lo que, según sus palabras, provoca que los ataques sean mucho más rápidos y difíciles de supervisar.

El problema que preocupa a juristas, congresistas y organismos internacionales no es solo la velocidad, sino la responsabilidad. Cuando una IA recomienda bombardear una ubicación y el ataque impacta una escuela matando a más de 170 personas, como ocurrió en el sur de Irán al inicio del conflicto, la pregunta inevitable es: quien toma realmente la decisión, el algoritmo o el ser humano que aprueba su recomendación en décimas de segundo. Varios congresistas demócratas ya han pedido una revisión completa del uso de la IA militar, señalando que el ritmo de la tecnología ha superado la capacidad de supervisión institucional.

Ucrania: El Mayor Laboratorio de IA Militar de la Historia

Si Irán representa la primera guerra donde la IA jugó un papel central en los ataques, Ucrania lleva años siendo el campo de pruebas más avanzado del mundo para la tecnología militar autónoma. Desde que Rusia lanzó su invasión a gran escala en febrero de 2022, el conflicto ha generado un volumen de datos de combate sin precedentes históricos.

Ucrania y la IA militar en cifras:

9.000 drones diarios en el aire:

Cada día, más de nueve mil aeronaves no tripuladas ucranianas surcan el espacio aéreo del conflicto, recopilando terabytes de información de vídeo que alimentan sistemas de inteligencia artificial capaces de anticipar movimientos enemigos y mejorar la precisión de ataques futuros.

45 millones de drones producidos en 2025:

Ucrania alcanzó ese hito de producción anual al tiempo que formalizaba sus Fuerzas de Sistemas No Tripulados, la primera unidad militar del mundo dedicada exclusivamente a la guerra con drones autónomos. El objetivo es llegar a los 10 millones producidos por año en el corto plazo.

70-80% de las bajas causadas por drones:

Según estimaciones de la Escuela de Guerra del Ejército de Estados Unidos, los drones representaban entre el 70 y el 80 por ciento de las bajas en los enfrentamientos directos entre Rusia y Ucrania hasta agosto de 2025, una proporción sin equivalente en ningún conflicto anterior.

Los datos ucranianos, activo estratégico global:

Ucrania ha acordado compartir sus datos de combate con aliados occidentales para entrenar modelos de IA militar. Expertos como Deborah Fairlamb señalan que Ucrania posee las bases de datos más completas de toda Europa en este ámbito, un activo tecnológico que está devolviendo el favor a sus socios con conocimiento táctico de valor incalculable.

Uno de los episodios más llamativos fue la Operación Spiderweb, en la que drones ucranianos entrenados con IA mediante imágenes de aviones soviéticos de museo lograron identificar los puntos vulnerables de bombarderos estratégicos rusos y destruir entre 12 y 41 aeronaves en una sola mañana. El coste de cada dron: menos de 1.000 dólares. El valor de los objetivos destruidos: miles de millones.

Drones Autónomos: Máquinas Que Toman Decisiones Sin Intervención Humana

Tanto en Ucrania como en los conflictos de Oriente Medio, la convergencia entre drones y algoritmos de visión artificial ha dado lugar a una nueva categoría de arma que resulta tan perturbadora como fascinante: sistemas capaces de identificar, perseguir y atacar objetivos sin que ningún ser humano presione el gatillo.

Tecnologías autónomas en el campo de batalla 2026:

DeepSky AI (Ucrania): Sistema operativo instalado en drones ucranianos que combina visión por computadora con navegación autónoma. Permite controlar los aparatos mediante comandos de voz, seleccionar objetivos de forma inteligente y coordinar flotas que aprenden colectivamente en tiempo real durante la misión.

V2U (Rusia): Dron de ataque ruso capturado por Ucrania en la provincia de Sumy en 2025 que cuenta con capacidad para buscar y seleccionar objetivos de forma autónoma mediante inteligencia artificial, apoyado en un procesador NVIDIA de alta velocidad. Su sistema de navegación artificial compara imágenes en tiempo real con fotos precargadas para guiar el ataque sin GPS.

Enjambres Swarmer: La empresa ucraniana Swarmer ha desarrollado software que permite coordinar más de 100 drones como un único sistema. La clave es la resiliencia: si un dron es derribado, el resto se reagrupa y ataca desde distintos ángulos sin necesidad de operadores adicionales.

Vehículos terrestres no tripulados: En diciembre de 2024, Donetsk fue escenario del primer ataque terrestre coordinado íntegramente por máquinas: vehículos terrestres no tripulados avanzaron contra posiciones defensivas bajo vigilancia de drones, sin que ningún ser humano cruzara la línea de fuego.

La pregunta que formula esta tecnología no es solo técnica. Es filosófica y jurídica. Los denominados sistemas de armas autónomas letales (LAWS) pueden seleccionar y atacar objetivos sin intervención humana directa. Esto genera tres problemas fundamentales: la escalada acelerada de conflictos porque los sistemas automatizados reaccionan en milisegundos, reduciendo el tiempo disponible para la toma de decisiones humanas; los errores algorítmicos en entornos caóticos que pueden provocar víctimas civiles; y la proliferación tecnológica hacia grupos armados no estatales que podrían acceder a estas capacidades a costes cada vez más bajos.

La Carrera Armamentista Tecnológica y Sus Implicaciones Globales

La IA militar no es patrimonio exclusivo de Estados Unidos ni de los países directamente involucrados en los conflictos actuales. Es el epicentro de una nueva carrera armamentista que involucra a todas las grandes potencias del mundo.

Inversiones militares en IA por potencias:

Estados Unidos:

El Departamento de Defensa supervisa más de 685 proyectos relacionados con IA, con una inversión de 25.200 millones de dólares en el año fiscal 2025. Maven y sus derivados se han probado en Siria, Irak, Yemen, el mar Rojo, Ucrania y, recientemente, Irán.

Rusia:

Invierte en drones autónomos y sistemas de guerra electrónica potenciados por aprendizaje automático. Produce más de 6.000 drones Shahed de origen iraní al mes y desarrolla activamente capacidades de navegación sin GPS mediante visión artificial.

China:

Aplica una política de fusión civil-militar que elimina barreras entre sus sectores civil y militar, permitiendo al Ejército Popular de Liberación recurrir al trabajo de empresas tecnológicas privadas. Para 2025, China produce casi el doble de doctorandos en ciencias y tecnología que Estados Unidos.

Riesgos estratégicos identificados:

Escalada sin control humano:

Los sistemas autónomos reaccionan en milisegundos, comprimiendo el tiempo disponible para que diplomáticos o mandos militares puedan detener una espiral de ataques y contraataques antes de que alcance un punto de no retorno.

Democratización del armamento autónomo:

A diferencia del desarrollo nuclear, muchas herramientas de IA militar pueden ser desarrolladas por empresas privadas, startups o actores no estatales con presupuestos relativamente modestos, ampliando el acceso a capacidades destructivas avanzadas.

Vacío regulatorio internacional:

La Asamblea General de la ONU adoptó en diciembre de 2024 una resolución sobre sistemas de armas autónomas letales con 166 votos a favor, pero el sistema internacional sigue sin un marco vinculante que establezca límites claros sobre cuándo y cómo puede una máquina tomar una decisión letal.

La diferencia crucial entre esta carrera armamentista y la nuclear del siglo XX es que la IA es exponencialmente más accesible. Un misil nuclear requiere infraestructura estatal, materiales regulados y décadas de desarrollo. Un enjambre de drones con IA puede construirse con componentes comerciales, código de código abierto y unos pocos millones de financiación privada. Esta democratización tecnológica es, al mismo tiempo, el mayor avance y la mayor amenaza que la IA introduce en los conflictos modernos.

El Debate Ético: ¿Puede una Máquina Decidir Quién Muere?

Más allá de los datos estratégicos y las capacidades técnicas, la incorporación de la IA en los conflictos armados plantea preguntas que las sociedades democráticas aún no han respondido con suficiente profundidad ni urgencia.

Las preguntas que la guerra algorítmica deja sin responder:

La responsabilidad difusa:

Cuando un algoritmo genera la lista de objetivos y un operador humano la aprueba en segundos bajo presión de combate, la cadena de responsabilidad se vuelve opaca. Los marcos legales internacionales sobre responsabilidad de mando fueron diseñados para un mundo donde los humanos tomaban decisiones humanas, no para validar recomendaciones algorítmicas a velocidad de máquina.

El sesgo en los datos de entrenamiento:

Los modelos de IA aprenden de los datos históricos de conflictos anteriores. Si esos datos contienen patrones discriminatorios, sesgos en la identificación de combatientes o errores sistemáticos, el algoritmo los amplificará y reproducirá a escala industrial. Un modelo que confunde a civiles con objetivos militares lo hará con precisión estadística y a velocidad imposible para la supervisión humana convencional.

La aceleración del tiempo de decisión:

Los conflictos que antes se desarrollaban en días ahora pueden escalar en horas. La IA comprime los tiempos de reacción hasta el punto de que las negociaciones diplomáticas, los sistemas de alerta temprana y los mecanismos de desescalada diseñados para el ritmo humano quedan obsoletos ante el ritmo algorítmico.

La guerra como campo de pruebas tecnológico:

Ucrania ha acumulado las bases de datos de combate más completas de Europa y las comparte con aliados para entrenar nuevos modelos de IA. Cada conflicto futuro se librará con sistemas más precisos, más autónomos y más letales, entrenados con los datos de sufrimiento y muerte de los conflictos anteriores.

La pregunta que subyace a todo este debate no es si la IA mejora la eficacia militar, porque los datos demuestran que sí lo hace. La pregunta es si las sociedades democráticas están dispuestas a aceptar que algoritmos entrenados por empresas privadas, sin supervisión parlamentaria ni escrutinio público, participen en la decisión de cuándo y dónde muere una persona. Esa conversación apenas ha comenzado, y los hechos sobre el terreno corren mucho más rápido que el debate político.

Conclusión: Una Nueva Era de la Guerra Ha Comenzado, Con o Sin Consenso

Los conflictos en Irán y Ucrania no son anomalías históricas. Son el modelo de cómo se libarán las guerras del futuro inmediato. La inteligencia artificial ya no es una promesa tecnológica aplicada al campo de batalla; es una realidad operativa que ha transformado la velocidad, la escala y la lógica de los conflictos armados modernos.

En Ucrania, drones con IA están representando entre el 70 y el 80 por ciento de las bajas en combate. En Irán, un sistema algorítmico convirtió semanas de planificación en ataques ejecutados en 48 horas. El mercado global de robots militares se proyecta que alcanzará los 44.000 millones de dólares en 2034. Y la Asamblea General de la ONU lleva años intentando acordar un marco regulatorio sobre armas autónomas sin llegar a compromisos vinculantes.

Semanas de planificación reducidas a horas. Cientos de soldados reemplazados por máquinas. Decisiones letales tomadas a velocidad algorítmica.

Esta no es la guerra del futuro lejano. Es la guerra de 2026, y sus implicaciones van mucho más allá de los campos de batalla en los que se libra. Afecta a cómo las democracias controlan sus ejércitos, cómo el derecho internacional puede proteger a los civiles cuando el atacante es un algoritmo, y cómo la humanidad gestiona herramientas que, por primera vez en la historia, pueden tomar decisiones letales más rápido de lo que un ser humano puede parpadear.

El impacto de la IA en los conflictos armados actuales:

La inteligencia artificial no ha llegado a la guerra como observadora. Ha llegado como participante activa, y los marcos legales, éticos y políticos que necesitamos para gestionarla corren peligrosamente por detrás de su despliegue real sobre el terreno.

¿Tu empresa está preparada para entender y afrontar el impacto de la IA en el mundo que viene?

Si te ha gustado, ¡compártenos en tus redes!

Este artículo ha sido tratado por inteligencia artificial

Click

Desarrollamos soluciones de software innovadoras que mejoran la eficiencia y productividad de nuestros clientes, impulsando la transformaicón y la digitalización de sus negocios.

Av.Olímpica, 34 locales 4 y 6, 28935. Móstoles(Madrid).

Tel. 600 94 03 70 info@clickaplicaciones.es.

s
xInstagramYoutubeLinkedin