Facultad de Ciencias
Facultad de Ciencias
La inteligencia artificial (IA) es una tecnología que está presente en nuestros días, desde su aplicación en el diagnóstico de enfermedades, hasta la generación de memes absurdos (brainrot). La IA, al igual que el internet, llegó para quedarse. Se nos advierte sobre sus diversos peligros, como la vulneración de datos personales, el desplazamiento laboral, o su enorme consumo de recursos hídricos; y sin embargo, rara vez se menciona el riesgo más peligroso: su uso para la guerra.
La IA, en el ámbito militar, es la aplicación de sistemas automatizados o computacionales con capacidad de razonamiento, aprendizaje, toma de decisiones y adaptación, diseñados para realizar funciones dentro del entorno bélico como son el análisis de inteligencia, la planificación táctica, la vigilancia, el control de sistemas de armamento, la defensa cibernética y, en algunos casos, la selección y ataque de objetivos; todo ello con un nivel de autonomía que puede variar según el sistema y su grado de supervisión humana.
Un ejemplo claro es la capacidad para interpretar imágenes con precisión avanzada que identifica objetivos militares tal como tanques y vehículos blindados. De hecho, el ejército ucraniano emplea sistemas como Swarmer, que utiliza enjambres de robots de combate impulsados por IA, los cuales operan en el campo de batalla desde la primavera de 2024.
Organizaciones militares de países con alto poder como Estados Unidos, Israel, China y Rusia están a la cabeza del desarrollo de estas tecnologías, donde también participan empresas como Lockheed Martin, Northrop Grumman o Rafael Advanced Defense Systems, que actúan como brazos industriales de estas agendas militares. El desarrollo de estas IA no es una fantasía de ciencia ficción, es una realidad financiada y ejecutada con respaldo económico y político.
¿Merecen existir?, ¿están justificadas?
Decidir si las IA militares deberían existir o ser eliminadas es un dilema complejo. Estas tecnologías pueden fortalecer significativamente la capacidad de defensa de una nación, lo cual resulta crucial para preservar su soberanía mediante la detección temprana de amenazas físicas o cibernéticas, como ataques con virus o software malicioso. Este debate no es nuevo, ya ha ocurrido con otras tecnologías, como las armas químicas tras la Primera Guerra Mundial, las armas nucleares, o el uso de drones armados por parte de Estados Unidos en Pakistán entre 2004 y 2018. Al final, la IA aplicada a lo militar es una herramienta más en el arsenal bélico, y aun con acuerdos internacionales que intenten limitar su uso, lo más probable es que seguirá formando parte de los conflictos y las estrategias de defensa.
¿Qué se puede hacer?
Las prohibiciones internacionales son letra muerta sin mecanismos coercitivos reales. El problema radica en que las potencias (llamadas así por su peso económico y militar) suelen absorber mejor los castigos que los países que intentan imponerlos, atrapados en relaciones comerciales asimétricas. Un bloqueo económico contra el uso de armas prohibidas (como bombas de racimo) podría terminar perjudicando más al sancionador que al sancionado. La solución no está en gestos aislados, sino en alianzas que ataquen puntos clave: si la IA militar depende de semiconductores o metales estratégicos, los países productores podrían limitar su desarrollo al realizar embargos selectivos y multas contundentes. Pero esto debe ir acompañado de la presión ciudadana (campañas que expongan el doble discurso de los gobiernos y desgasten su legitimidad). La diplomacia no sólo debe verse en el papel, sino también en movilización y acciones concretas.
La selectividad de objetivos y malinterpretaciones
Los sistemas de IA militar (como el software israelí Lavender) operan con un margen de error del 10% al identificar objetivos a través de patrones de comportamiento, su incapacidad para evaluar contexto o proporcionalidad ha derivado en ataques a civiles marcados erróneamente como combatientes, como bien puntualizan Mario de Diego y Pablo Fernández Sáez en el artículo “Auge de la IA en el ámbito militar y sus riesgos”, publicado en Global Affairs and Strategic Studies de la Universidad de Navarra. Esta limitación técnica se agrava cuando, como demostró el Instituto de Tecnología de Massachusetts en 2019, basta alterar unos píxeles en una imagen de tortuga para que un algoritmo la clasifique como rifle.
El verdadero peligro reside en la opacidad, al ser “cajas negras” no hay forma de auditar si estos sistemas etiquetan como “terrorista” a un civil en Gaza, o si podrían usarse para limpiezas étnicas. Las promesas de seguridad de gobiernos y corporaciones chocan contra una realidad evidente: delegar decisiones letales en máquinas que no comprenden el valor de la vida humana viola los principios básicos del derecho internacional y perpetúa los ciclos de violencia indiscriminada.
El riesgo de los deepfakes y la manipulación política
No todo son armas. La IA también se usa en la política donde puede ser igual de peligrosa. Casos como el de Facebook y Cambridge Analytica mostraron la manipulación de información privada para influir en campañas como las de Ted Cruz, Donald Trump y el Brexit. Los deepfakes y las fake news pueden distorsionar por completo la percepción pública de líderes o conflictos. Herramientas como VEO 3 de Google han alcanzado un realismo inquietante, y organizaciones con recursos suficientes podrían usarlas para justificar guerras o encubrir abusos. Este escenario recuerda a la película The Running Man, donde un video manipulado del protagonista disparando a civiles inocentes se utiliza para justificar su participación en un reality show mortal.
Ante este panorama, el marco regulatorio actual que se basa en los principios del Derecho Internacional Humanitario, como la distinción y la proporcionalidad, además del Artículo 36 de los Convenios de Ginebra, se queda corto. Aunque existen esfuerzos puntuales, como las exigencias de transparencia algorítmica en la Unión Europea, o la imposición de “vetos humanos” en sistemas autónomos por parte del Departamento de Defensa de Estados Unidos (DoD Directive 3000.09), la falta de un tratado global vinculante y el ritmo acelerado del desarrollo tecnológico han dejado huecos críticos, como documenta Marta R. Vigevano en el artículo “Inteligencia artificial aplicable a los conflictos armados: límites jurídicos y éticos” para la revista Arbor.
En la práctica, muchas de estas regulaciones son más aspiraciones que realidades. Mientras sistemas como Lavender operan sin una supervisión efectiva, los tratados internacionales siguen siendo poco más que papel firmado. Lo que falta no es un diagnóstico, sino voluntad política: una cooperación internacional que pase del discurso a los límites concretos. Porque si no actuamos ahora, no será la IA la que decida a quién eliminar, sino nosotros quienes, por omisión, lo permitamos.
Por: Brandon Antonio Muñoz Salazar
Las IA desplazan a los artistas con mercancía disfrazada de arte
Por: Mariel Analai Brito Lievanos
¿Realidad o ficción? El riesgo de enamorarse de una inteligencia artificial
Por: Ricardo Alonso Arévalo Garcilazo
Entre la innovación y la mediocridad pedagógica
Por: Sebastián Coronel Osnaya
¿Hasta dónde debemos llegar con la IA?
Por: Ik Emmanuel Anguiano Gutiérrez
La moralización del medio como consecuencia de la relación entre la tecnología y el pensamiento
Por: Alejandro Huerta Hernández
No a la prohibición, sí al uso correcto