En estas trincheras nuestras armas son palabras convertidas en argumentos y contra argumentos.
En estas trincheras nuestras armas son palabras convertidas en argumentos y contra argumentos.
Foto de Tara Winstead

Inteligencia artificial: ¿espejo o muro?

Número 19 / OCTUBRE - DICIEMBRE 2025

El desafío de la humanidad en la era digital

Picture of Luan Daniel Toledo Ruíz

Luan Daniel Toledo Ruíz

Facultad de Filosofía y Letras

La inteligencia artificial (IA) irrumpió en nuestra realidad no como una fantasía de ciencia ficción, sino como un conjunto de herramientas con un potencial tan inmenso como su polémica. Nos promete eficiencia y avance, pero nos obliga a preguntarnos: ¿estamos construyendo una herramienta que nos amplifique o una entidad que nos reemplace? La respuesta no está en la tecnología, sino en nosotrxs: en los usos, abusos y elecciones que hagamos como comunidad universitaria y como sociedad.

Uno de los riesgos más graves es la perpetuación de sesgos y la amplificación de violencias estructurales. La IA no es neutral; aprende de los datos que le proporcionamos, que a menudo están cargados de nuestros propios prejuicios. Así, algoritmos sexistas pueden agravar la violencia digital de género, creando deep fakes no consensuados o sistemas de vigilancia que vulneran la autonomía de las mujeres y disidencias. Este no es un simple error de programación; es el reflejo de una sociedad que la máquina repite y escala. La IA nos devuelve, amplificada, una imagen de nuestros peores lados, consolidando nuestros puntos ciegos como si fueran la norma.

Este debate toca la esencia de nuestra construcción como personas. El filósofo Eduardo Nicol decía que nos reconocemos en lxs otrxs, en lo otro, y nos volvemos “comunes” a través del diálogo y la alteridad. La IA, al tender a darnos siempre la razón, nos priva de la incomodidad necesaria para el crecimiento. La comunidad, por el contrario, nos confronta y nos invita a reflexionar en conjunto. El verdadero peligro no es que la IA piense, sino que nosotros dejemos de hacerlo. El riesgo está en intentar humanizarla.

En la búsqueda de soluciones rápidas a nuestra soledad y a la complejidad de la vida, caemos en el espejismo de humanizar la IA. La convertimos en terapeuta personal, consejero de vida o incluso pareja virtual. En vez de buscar el contacto, la alteridad y la confrontación con otras personas —espacios donde verdaderamente nos construimos—, delegamos nuestra intimidad a una máquina que ofrece respuestas programadas. Al hacerlo, perdemos la oportunidad de ejercer la empatía, practicar la escucha genuina y vivir la incomodidad transformadora de la amistad, el amor y la comunidad. El riesgo no es que la IA nos reemplace, sino que la elijamos como sustituto de lo que nos hace humanos. Nuestra tarea es defender la singularidad de lo humano: el diálogo, la imperfección, la capacidad de disentir y de crear. La vocación, entendida como ese compromiso con un modo de ser y un trabajo en común, se erosiona si cedemos nuestra capacidad de pensar y crear a una herramienta que simula, pero no vive.

Frente a esto, la postura crítica debe ser clara: la IA debe ser una herramienta de apoyo, nunca un sustituto de nuestro criterio, creatividad o ética. En la academia, esto es crucial. Como estudiante que inicia sus prácticas docentes, comprendo la tentación de mis estudiantes de usarla como un atajo: ¿cómo encontrar tiempo para escribir un ensayo de ocho cuartillas entre doce materias, cuatro horas de transporte y la exigencia de tener una vida? Nuestro rol como futurxs docentes no es prohibir, sino guiar. Si el estudiantado la usará inevitablemente, nuestra misión es enseñarles a emplearla de manera responsable: que la vean como un borrador inicial, una fuente de ideas para debatir, nunca como el pensamiento final. Debemos enseñar a citarla, cuestionarla y mejorarla. Por supuesto, también debemos apostar por modos de evaluación que inciten a pensar en común.

Y no olvidemos que incluso el acto más simple de pensamiento apoyado en IA tiene una huella material. Generar un texto de 100 palabras en un modelo como ChatGPT consume, en promedio, 519 mililitros de agua. Si multiplicamos eso por millones de consultas diarias, el costo ambiental es monumental y a menudo oculto; una externalidad más del modelo de crecimiento infinito. 

Así, apostar por “lo humano” trasciende radicalmente el androcentrismo. Se trata de adoptar la humildad de reconocernos, como propuso Aldo Leopold, no como amos de la naturaleza, sino como “miembros y compañeros” de una comunidad biótica más amplia. Esta visión nos revela como seres relativos e insuficientes, en íntima y necesaria relación con el clima, la tierra y todos los ecosistemas que nos conforman y permiten la vida.

Desde esta mirada, la conciencia sobre la huella material de la IA deja de ser un simple dato técnico. Se convierte en una cuestión de valor en el sentido filosófico más amplio: el valor de una existencia interdependiente que se mantiene y enriquece gracias a las conexiones con todo lo vivo. Comprender esto no es un imperativo, sino un acto de amor, respeto y admiración por la tierra del que, como señala Leopold, nace inevitablemente una relación ética con ella.

Por todo ello, nuestra reflexión debe ser integral y nuestra acción, consecuente. No basta con exigir transparencia en los algoritmos y luchar contra sus sesgos; se trata de construir una relación con la tecnología que priorice la comunidad biótica por sobre el capital, la crítica ética por sobre la comodidad, y la vocación humana por sobre la eficiencia vacía. El desafío final no es técnico, sino existencial: decidir si seremos nosotrxs los artífices de un pensamiento crítico y amoroso, o meros consumidores de un espejismo de inteligencia que, al imitarnos, nos empobrece y nos aísla tanto entre nosotrxs como del mundo vivo que nos sustenta. El verdadero muro no lo construye la IA, sino nuestra propia incapacidad para elegir el reflejo que queremos ver en ella: el de una humanidad humilde, interdependiente y consciente de su lugar en la trama de la vida.

Lee aquí más artículos relacionados

¿Volveré a ser quien era antes de usar ChatGPT?

¿Volveré a ser quien era antes de usar ChatGPT?

Por: América Gabriela Salazar Morales
Cada día dependo un poco más de la IA

Leer
No es necesario quemar libros

No es necesario quemar libros

Por: Jesica Martínez Torres
La revolución más importante es la del pensamiento

Leer
A favor de la frustración humana

A favor de la frustración humana

Por: Diego Huerta Lezama
El uso de la IA en el arte está carente de significado

Leer
Democratizar la noosfera en tiempos de las IAs

Democratizar la noosfera en tiempos de las IAs

Por: Juan Carlos Lira González
Revolucionar el pensamiento en la era tecno-cognitiva

Leer
México frente al desafío de la IA

México frente al desafío de la IA

Por: Víctor Abiuth González López
Entre la diversidad y el algoritmo

Leer
La disputa por la IA

 La disputa por la IA

Por: Paola Parra
Entre el poder económico y la política global

Leer

Deja tus comentarios sobre el artículo

Inteligencia artificial: ¿espejo o muro?

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

3 × two =