En estas trincheras nuestras armas son palabras convertidas en argumentos y contra argumentos.
En estas trincheras nuestras armas son palabras convertidas en argumentos y contra argumentos.
Cotton Bro Studio

La disputa por la IA

Número 19 / OCTUBRE - DICIEMBRE 2025

Entre el poder económico y la política global

Picture of Paola Parra

Paola Parra

Facultad de Ciencias Políticas y Sociales

En nuestra vida últimamente parece ser que la inteligencia artificial es lo más nuevo, reciente y cotidiano en los usos que le damos día a día. ¿Acaso no le has pedido un consejo para la vida o ayuda a las múltiples IA existentes?

El tema de la inteligencia artificial tiene una trayectoria mucho más larga de lo que podríamos imaginar. En el ámbito académico, durante las décadas de 1970, 80 y 90, los investigadores dedicados a esta área eran vistos como bichos raros. En aquel entonces, la transición democrática, las crisis económicas y los procesos de modernización del país acaparaban la atención pública, relegando a un segundo plano un tema tan desconocido como la inteligencia artificial.

Por ejemplo, en 1992 durante el Coloquio de Invierno organizado por la UNAM, algunos de los académicos más distinguidos de la época discutían sus alcances y posibilidades ante la apertura del mercado y las reconfiguraciones geopolíticas, sin prever que tres décadas después se convertiría en uno de los temas centrales y de mayor relevancia para la vida económica, política y social.

 

Gobernanza algorítmica: ¿quién controla a quién?

 

Su uso se ha discutido y negociado entre políticos y empresarios en congresos de diferentes partes del mundo, pues el debate sobre la gobernanza es central tanto en economía como en inteligencia artificial y en la elección de gobernantes. En el ámbito económico, la premio Nobel Elinor Ostrom demostró en su libro El gobierno de los bienes comunes de 1990 que las instituciones juegan un papel fundamental en la gestión y generación de confianza entre actores. Esto sucede de forma análoga en la IA cuando se cuestiona quién diseña y supervisa los algoritmos que influyen en la asignación de recursos, la concesión de créditos o la vigilancia digital.

La especialista en derecho y tecnología Mireille Hildebrandt denomina a esto gobernanza algorítmica en su obra Smart Technologies and the End(s) of Law de 2016, y remite a la necesidad de establecer marcos regulatorios nacionales e internacionales que eviten la concentración de poder tecnológico en pocas corporaciones y aseguren transparencia, responsabilidad y mecanismos democráticos.

Según datos del informe State of AI Report 2023, tan solo cinco grandes tecnológicas Google, Microsoft, Amazon, Meta y Apple concentran el setenta por ciento de la inversión global en inteligencia artificial, lo que representa más de ciento cincuenta mil millones de dólares anuales. Esta concentración plantea serios cuestionamientos sobre quién tiene realmente el poder de decisión sobre tecnologías que afectan a millones de personas.

 

Capitalismo de vigilancia: cuando los datos son el nuevo petróleo

 

El capitalismo de vigilancia surge en el marco del cambio global después de la caída del Muro de Berlín y el desarrollo de la democracia en México, ante la aceleración de la globalización bajo las reglas de desregulación y el predominio del neoliberalismo. Este proceso, como lo analiza el politólogo Manuel Alcántara Sáez en su artículo El estudio de la política en la era digital de 2018, se vio impulsado por el desarrollo de las tecnologías de la información y comunicación como un modelo económico basado en la recolección de datos personales para generar ganancias y controlar comportamientos.

Alcántara Sáez advierte que mientras la era digital ha transformado profundamente la cultura, la sociedad y la economía, la política pareciera sin embargo que es ajena a ello. Pero nada más alejado de la realidad. Las transformaciones digitales tienen especial relevancia en cuatro aspectos sustantivos de la política relacionados con la representación: la libertad, la igualdad, la confianza y la identidad. Es precisamente en la intersección de estos elementos donde los datos personales se convierten en herramientas de predicción y manipulación del comportamiento electoral.

La profesora de la Harvard Business School Shoshana Zuboff acuñó el término capitalismo de vigilancia en su libro homónimo de 2019, documentando cómo empresas como Google y Facebook recopilan en promedio más de cinco mil puntos de datos por usuario al día. Lo verdaderamente inquietante es cómo estos datos se utilizan para influir en decisiones políticas.

El caso más emblemático es el de Cambridge Analytica en 2018, cuando se reveló que la firma había recopilado datos de ochenta y siete millones de usuarios de Facebook sin su consentimiento para construir perfiles psicológicos y dirigir mensajes personalizados durante las elecciones presidenciales estadounidenses de 2016 y el referéndum del Brexit. Según el exempleado Christopher Wylie, la empresa utilizaba modelos de IA para identificar a votantes indecisos en distritos clave y exponerlos a contenido diseñado específicamente para modificar su comportamiento electoral.

El científico del MIT Alex Pentland ha demostrado en sus investigaciones que con apenas sesenta y ocho me gusta en Facebook es posible predecir con noventa y cinco por ciento de precisión el color de piel de una persona, con ochenta y cinco por ciento su orientación política y con setenta y cinco por ciento su orientación sexual. Estos productos de predicción del comportamiento, como los denomina Zuboff, pueden ser utilizados para segmentar electorados, ajustar publicidad de manera estratégica y, en última instancia, influir en el sentido del voto.

En América Latina el fenómeno no es menor. Durante las elecciones presidenciales de Brasil en 2018, un informe de investigadores de la Universidad Federal de Minas Gerais documentó que más de cien mil grupos de WhatsApp difundieron contenido político, gran parte de él generado por bots y financiado por empresarios que utilizaron bases de datos masivas para microsegmentar mensajes. La Justicia Electoral brasileña reportó haber identificado más de diez millones de mensajes falsos circulando en redes sociales durante el periodo electoral.

Lo que Alcántara Sáez señala como el anclaje de la ciencia política a conceptos e incluso métodos que no están acordes con el momento presente se manifiesta claramente aquí. Necesitamos repensar cómo estudiamos el comportamiento electoral cuando los datos personales que incluyen nuestras búsquedas en Google, patrones de navegación e interacciones en redes sociales se convierten en insumos para algoritmos que intentan no solo predecir, sino moldear nuestras decisiones políticas. La pregunta ya no es solo quién vota por quién, sino quién está diseñando los mensajes que cada votante ve, basándose en qué datos y con qué intenciones.

 

Economía e IA: sistemas que se retroalimentan

 

En ese sentido, la economía y la IA comparten intereses por comprender y modelar sistemas funcionales de la sociedad en los que interactúan múltiples agentes bajo condiciones de incertidumbre. Los mercados funcionan como sistemas dinámicos donde los resultados no derivan de una autoridad central, sino de la interacción descentralizada de individuos y organizaciones.

El profesor Alfredo Olguín Gallardo de la Facultad de Economía de la UNAM explica en su artículo Inteligencia artificial y sistemas complejos de 2017 que la IA ha desarrollado paradigmas como los sistemas multiagente, el aprendizaje reforzado o los algoritmos evolutivos, que buscan reproducir dinámicas de adaptación. Esto permite entender fenómenos como las crisis financieras o el entrenamiento de redes neuronales como manifestaciones de un mismo principio: la autogestión.

La creciente integración de la inteligencia artificial en la economía no solo transforma la producción, los mercados y la eficiencia, sino que también genera tensiones y coyunturas políticas.

 

Conclusión: la regulación en manos privadas

 

La participación de los empresarios en los procesos de regulación de la IA ha sido clave para entender cómo se han ido moldeando las normas y debates en torno a esta tecnología. Desde mediados de la década pasada, figuras como Elon Musk y Sam Altman comenzaron a destacar en el escenario internacional. Musk, entonces aún vinculado a OpenAI, alertaba sobre los riesgos existenciales de la inteligencia artificial y pedía públicamente que los gobiernos intervinieran antes de que fuera demasiado tarde. En una carta abierta publicada en 2015, Musk y otros científicos advirtieron que la inteligencia artificial podría suponer riesgos para la civilización humana si no se gestiona adecuadamente.

El punto de inflexión llegó en 2023 con ChatGPT, que alcanzó cien millones de usuarios en apenas dos meses, convirtiéndose en la aplicación de más rápido crecimiento en la historia. Esto catapultó a Sam Altman al centro de la discusión global, compareciendo ante el Congreso de Estados Unidos en mayo de 2023 y ante el Parlamento Europeo para discutir el aprovechamiento de los beneficios de la IA sin ignorar los riesgos. ¿Conoces esos riesgos?

En noviembre del mismo año, el AI Safety Summit en Bletchley Park en Reino Unido reunió a Musk, Altman, Demis Hassabis de DeepMind, Mustafa Suleyman de Inflection AI, Satya Nadella de Microsoft y Jensen Huang de Nvidia, todos en diálogo directo con líderes políticos sobre los pasos a seguir. La imagen era reveladora: los dueños de la tecnología sentados como iguales o superiores frente a los representantes electos democráticamente. La presencia de estos empresarios evidenció que la regulación de la IA no puede pensarse sin considerar la influencia de las grandes compañías tecnológicas, pero también planteó una pregunta incómoda: ¿quién regula a quién?

Mientras tanto, en China, nombres como Robin Li de Baidu y Pony Ma de Tencent se consolidaron como aliados estratégicos de su gobierno en la implementación de reglas estrictas sobre el uso de algoritmos y sistemas de inteligencia artificial. El gobierno chino publicó en 2023 el borrador de treinta y cinco regulaciones específicas sobre IA generativa, obligando a las empresas a registrar sus modelos y someter el contenido generado a revisión estatal. Aunque con menor visibilidad en Occidente, su papel ha sido fundamental para entender cómo un modelo regulatorio estatal puede convivir con intereses privados bajo un esquema de control centralizado.

La pregunta que nos queda no es si la IA transformará nuestras sociedades, ya lo está haciendo, sino quién controlará esa transformación y bajo qué principios. ¿Serán las corporaciones tecnológicas que diseñan los algoritmos? ¿Los gobiernos que intentan regularlos? ¿O construiremos mecanismos democráticos que permitan a la ciudadanía participar en las decisiones sobre tecnologías que afectan cada aspecto de nuestras vidas?

Lo que sí sabemos es que en la ciencia política necesitamos nuevas herramientas conceptuales, nuevos marcos regulatorios y sobre todo una ciudadanía informada capaz de exigir que la inteligencia artificial sirva al bien común y no solo a los intereses de unos pocos. El debate apenas comienza y las decisiones que tomemos hoy definirán el tipo de sociedad que habitaremos mañana.

Lee aquí más artículos relacionados

Anatomía de la guerra

Anatomía de la guerra

Por: Obed Joao da Silva Botello
La guerra ya no solo se libra con armas

Leer
Educación social para la paz

Educación social para la paz

Por Natalia Hernández Santelmo
La violencia es un hábito que podemos cambiar

Leer
La paz se construye juntxs

La paz se construye juntxs

Por Suan Monserrat Mena Cerqueda
Elijamos no ser indiferentes

Leer
Ecos vivos de la Guerra Sucia

Ecos vivos de la Guerra Sucia

Por Irving González Meraz
La violencia nunca se fue, sólo se transformó

Leer
Del crimen organizado al intervencionismo

Del crimen organizado al intervencionismo

Por Isaac Márquez Vicente
Hablar de paz es hoy una necesidad política

Leer

Incertidumbre académica

Por Abigail Huitzil Ortega
El miedo no debería ser parte del plan de estudios

Leer

Deja tus comentarios sobre el artículo

 La disputa por la IA

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

seventeen − six =