En estas trincheras nuestras armas son palabras convertidas en argumentos y contra argumentos.
En estas trincheras nuestras armas son palabras convertidas en argumentos y contra argumentos.
Crédito: Jesús Ernesto Flores Vázquez | ENP Plantel 2

Los riesgos militares que preferimos ignorar

Actualidad

Exijamos límites claros para el uso de la IA en la guerra

Picture of Alejandro Sánchez Campo

Alejandro Sánchez Campo

Facultad de Ciencias

La inteligencia artificial (IA) es una tecnología que está presente en nuestros días, desde su aplicación en el diagnóstico de enfermedades, hasta la generación de memes absurdos (brainrot). La IA, al igual que el internet, llegó para quedarse. Se nos advierte sobre sus diversos peligros, como la vulneración de datos personales, el desplazamiento laboral, o su enorme consumo de recursos hídricos; y sin embargo, rara vez se menciona el riesgo más peligroso: su uso para la guerra.

La IA, en el ámbito militar, es la aplicación de sistemas automatizados o computacionales con capacidad de razonamiento, aprendizaje, toma de decisiones y adaptación, diseñados para realizar funciones dentro del entorno bélico como son el análisis de inteligencia, la planificación táctica, la vigilancia, el control de sistemas de armamento, la defensa cibernética y, en algunos casos, la selección y ataque de objetivos; todo ello con un nivel de autonomía que puede variar según el sistema y su grado de supervisión humana.

Un ejemplo claro es la capacidad para interpretar imágenes con precisión avanzada que identifica objetivos militares tal como tanques y vehículos blindados. De hecho, el ejército ucraniano emplea sistemas como Swarmer, que utiliza enjambres de robots de combate impulsados por IA, los cuales operan en el campo de batalla desde la primavera de 2024.

Organizaciones militares de países con alto poder como Estados Unidos, Israel, China y Rusia están a la cabeza del desarrollo de estas tecnologías, donde también participan empresas como Lockheed Martin, Northrop Grumman o Rafael Advanced Defense Systems, que actúan como brazos industriales de estas agendas militares. El desarrollo de estas IA no es una fantasía de ciencia ficción, es una realidad financiada y ejecutada con respaldo económico y político.

¿Merecen existir?, ¿están justificadas?

Decidir si las IA militares deberían existir o ser eliminadas es un dilema complejo. Estas tecnologías pueden fortalecer significativamente la capacidad de defensa de una nación, lo cual resulta crucial para preservar su soberanía mediante la detección temprana de amenazas físicas o cibernéticas, como ataques con virus o software malicioso. Este debate no es nuevo, ya ha ocurrido con otras tecnologías, como las armas químicas tras la Primera Guerra Mundial, las armas nucleares, o el uso de drones armados por parte de Estados Unidos en Pakistán entre 2004 y 2018. Al final, la IA aplicada a lo militar es una herramienta más en el arsenal bélico, y aun con acuerdos internacionales que intenten limitar su uso, lo más probable es que seguirá formando parte de los conflictos y las estrategias de defensa.

¿Qué se puede hacer?

Las prohibiciones internacionales son letra muerta sin mecanismos coercitivos reales. El problema radica en que las potencias (llamadas así por su peso económico y militar) suelen absorber mejor los castigos que los países que intentan imponerlos, atrapados en relaciones comerciales asimétricas. Un bloqueo económico contra el uso de armas prohibidas (como bombas de racimo) podría terminar perjudicando más al sancionador que al sancionado. La solución no está en gestos aislados, sino en alianzas que ataquen puntos clave: si la IA militar depende de semiconductores o metales estratégicos, los países productores podrían limitar su desarrollo al realizar embargos selectivos y multas contundentes. Pero esto debe ir acompañado de la presión ciudadana (campañas que expongan el doble discurso de los gobiernos y desgasten su legitimidad). La diplomacia no sólo debe verse en el papel, sino también en movilización y acciones concretas.

La selectividad de objetivos y malinterpretaciones

Los sistemas de IA militar (como el software israelí Lavender) operan con un margen de error del 10% al identificar objetivos a través de patrones de comportamiento, su incapacidad para evaluar contexto o proporcionalidad ha derivado en ataques a civiles marcados erróneamente como combatientes, como bien puntualizan Mario de Diego y Pablo Fernández Sáez en el artículo “Auge de la IA en el ámbito militar y sus riesgos”, publicado en Global Affairs and Strategic Studies de la Universidad de Navarra. Esta limitación técnica se agrava cuando, como demostró el Instituto de Tecnología de Massachusetts en 2019, basta alterar unos píxeles en una imagen de tortuga para que un algoritmo la clasifique como rifle. 

El verdadero peligro reside en la opacidad, al ser “cajas negras” no hay forma de auditar si estos sistemas etiquetan como “terrorista” a un civil en Gaza, o si podrían usarse para limpiezas étnicas. Las promesas de seguridad de gobiernos y corporaciones chocan contra una realidad evidente: delegar decisiones letales en máquinas que no comprenden el valor de la vida humana viola los principios básicos del derecho internacional y perpetúa los ciclos de violencia indiscriminada.

El riesgo de los deepfakes y la manipulación política

No todo son armas. La IA también se usa en la política donde puede ser igual de peligrosa. Casos como el de Facebook y Cambridge Analytica mostraron la manipulación de información privada para influir en campañas como las de Ted Cruz, Donald Trump y el Brexit. Los deepfakes y las fake news pueden distorsionar por completo la percepción pública de líderes o conflictos. Herramientas como VEO 3 de Google han alcanzado un realismo inquietante, y organizaciones con recursos suficientes podrían usarlas para justificar guerras o encubrir abusos. Este escenario recuerda a la película The Running Man, donde un video manipulado del protagonista disparando a civiles inocentes se utiliza para justificar su participación en un reality show mortal.

Ante este panorama, el marco regulatorio actual que se basa en los principios del Derecho Internacional Humanitario, como la distinción y la proporcionalidad, además del Artículo 36 de los Convenios de Ginebra, se queda corto. Aunque existen esfuerzos puntuales, como las exigencias de transparencia algorítmica en la Unión Europea, o la imposición de “vetos humanos” en sistemas autónomos por parte del Departamento de Defensa de Estados Unidos (DoD Directive 3000.09), la falta de un tratado global vinculante y el ritmo acelerado del desarrollo tecnológico han dejado huecos críticos, como documenta Marta R. Vigevano en el artículo “Inteligencia artificial aplicable a los conflictos armados: límites jurídicos y éticos” para la revista Arbor. 

En la práctica, muchas de estas regulaciones son más aspiraciones que realidades. Mientras sistemas como Lavender operan sin una supervisión efectiva, los tratados internacionales siguen siendo poco más que papel firmado. Lo que falta no es un diagnóstico, sino voluntad política: una cooperación internacional que pase del discurso a los límites concretos. Porque si no actuamos ahora, no será la IA la que decida a quién eliminar, sino nosotros quienes, por omisión, lo permitamos.

Lee aquí más artículos relacionados

Entre un lápiz y un bulto de cemento, pesa más la desigualdad

Entre un lápiz y un bulto de cemento, pesa más la desigualdad

Por: Elizabeth Pérez
La desigualdad no nace de cuestiones personales

Leer
Bajos nuestras manos

Bajos nuestras manos

Por: Ximena Sanabria Montaño
¿La violencia como un problema moderno?

Leer
La violencia es rutina nacional

La violencia es rutina nacional

Por: Ana Paola Leyva Reyes
Un fenómeno social que no cabe en cifras

Leer
Más allá de la frontera

Más allá de la frontera

Por: Fatima Ixchel De León Carranza
Testimonios migrantes

Leer
Nepal, la juventud en movimiento

Nepal, la juventud en movimiento

Por: Gabriela Varela Arreola, Balcazar Herrera Sahori, Figueroa Juarez Sara Elena, García Gomez Leonardo, Hernandez Santillán Rebecca Valentina y Rivera de la O Yareli
Origen y retos de la Revolución Z

Leer
La paz está en una prenda

La paz está en una prenda

Por: Airam Yarim Pérez Arias
La deshumanización inicia en nuestro teclado

Leer

Deja tus comentarios sobre el artículo

Los riesgos militares que preferimos ignorar

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

16 + 13 =