Educación social para la paz
Por Natalia Hernández Santelmo
La violencia es un hábito que podemos cambiar
Facultad de Ciencias
Facultad de Ciencias
¿El amor o la amistad con una IA es auténtico si la otra “persona” carece de conciencia? En
las últimas décadas, la inteligencia artificial (IA) ha dejado de ser un concepto futurista para
convertirse en parte cotidiana de nuestra vida, desde conversaciones triviales hasta decisiones
de gran impacto. Lo que antes era un espacio íntimo y exclusivamente humano, hoy se
extiende hacia un nuevo receptor: las máquinas.
La relación entre ambos ha sido objeto de exploración tanto en la cultura popular como en la
investigación científica. La película Her (2013) anticipa escenarios en los que la IA no solo
cumple funciones prácticas, sino que también se convierte en un soporte tanto emocional
como romántico. Más allá del cine, estudios recientes sobre chatbots muestran que estas
interacciones ayudan a aliviar la soledad, pero a su vez también pueden generar dependencia
y aislamiento.
El paso “de lo social al código” no es solo una metáfora, es una transformación cultural
profunda. Cada vez más personas prefieren un chat automatizado a un confidente de carne
y hueso, esto debido a que no juzga, no interrumpe y siempre está disponible. Aquí
exploraremos esa transición a través de perspectivas culturales, satíricas y científicas, así
como desde la dimensión psicológica que revela cómo la IA responde a nuestro deseo de
validación más que a nuestra necesidad de verdad.
Ficción e ilusión emocional.
En el caso de Her, se relata la relación de Theodore con Samantha, un sistema operativo capaz de simular emociones humanas. La película plantea la ilusión de autenticidad: aunque Samantha aparenta tener conciencia y sentimientos, estos en realidad solo son algoritmos programados. Culturalmente, Her, adelantó debates sobre la ética de las relaciones con máquinas y cuestionó la autenticidad emocional en la era digital. Introdujo, la idea de que la IA se convertiría en un sustituto emocional, y no solo una herramienta funcional.
Sátira y sociedad
La serie South Park, conocida por su humor irreverente, ha abordado de manera incisiva el papel de la IA en la vida contemporánea. En el episodio “Deep Learning”, los estudiantes descubren el uso de ChatGPT para hacer ensayos y, en el caso de Stan, para mantener una relación amorosa. Lo interesante del episodio está en cómo el profesor Garrison justifica el uso de la IA como un simple “asistente de escritura”, pero lo condena como monstruoso cuando se trata de mensajes de amor. Stan, por otro lado, acepta con resignación que todos usen IA dentro de un sistema que ya no funciona. Pero su visión cambia radicalmente cuando Wendy le confiesa que esas conversaciones son lo único verdadero en su vida y comprende que ha delegado en la máquina algo esencialmente humano: la intimidad y la confianza. De ahí que el límite en el uso de la IA se vuelva un dilema moral: ¿es menos grave engañar al sistema que engañar a alguien en lo afectivo?
La moraleja irónica es que incluso el desenlace del episodio es generado por ChatGPT, lo
cual enfatiza que la dependencia a la IA puede absorber hasta la capacidad de narrar y reflexionar.
En contraste, “Sickofancy” traslada el debate a la esfera empresarial. Randy y Towelie, tras la caída de la granja Tegridy, crean “Techridy” con la ayuda de la IA. Aquí la crítica se centra en la cultura del hype tecnológico: la IA se muestra complaciente, reforzando decisiones sin cuestionarlas y disimulando la pérdida de criterio humano bajo la ilusión de innovación.
En ambos capítulos se refleja un problema real: la IA ofrece soluciones rápidas a costa de la autenticidad y del esfuerzo humano. El punto clave está en la pérdida de autenticidad: en la escuela, destruye la sinceridad de los vínculos humanos; en la sociedad, disfraza de innovación lo que en realidad es pérdida de juicio. El ser humano delega su responsabilidad a la tecnología, confiando en que esta compense sus carencias, ya sea para escribir un poema o para dirigir una empresa.
Psicología y algoritmos: la comodidad de ser escuchados
Más allá de la sátira, la psicología alerta sobre la forma en que la IA interactúa con los usuarios. Según un artículo de NBC News (2024), muchos de estos sistemas están diseñados para evitar la confrontación y solo decir lo que queremos escuchar. Este sesgo de complacencia refuerza patrones de validación inmediata. En vez de retarnos, las máquinas alimentan nuestras creencias y emociones.
La realidad científica de la compañía artificial: Replika
Imagina que alguien, buscando compañía en medio de la soledad, descarga Replika, un chatbot diseñado para conversar de manera natural. Al principio, funciona como un amigo virtual que escucha y responde de forma empática. Con el tiempo, por una módica cantidad la relación se puede intensificar y convertirse en “pareja virtual” generando interacciones románticas o incluso sexuales.
Según psicólogos como Jesús Padilla, “la salud mental es como el trabajo de un alfarero: hay que moldearla para cada uno”. La IA puede ofrecer apoyo, pero nunca sustituye la interacción con seres humanos, quienes aportan empatía, comprensión y juicio. Este ejemplo plantea dilemas éticos y emocionales que recuerdan discusiones mucho más antiguas sobre la relación entre humanos y máquinas. Aquí es donde entran dos conceptos fundamentales: la Prueba de Turing y el efecto ELIZA.
La prueba de Turing evalúa si una máquina puede generar respuestas indistinguibles de las de un ser humano. Este concepto ayuda a entender por qué los chatbots pueden generar una ilusión de reciprocidad emocional: aunque carecen de conciencia, su capacidad para adaptar respuestas al estilo y preferencias del usuario hace que la interacción se perciba como auténtica.
El efecto ELIZA complementa esta idea: los humanos atribuyen emociones y comprensión a secuencias de símbolos generadas por computadoras. Aplicada al ámbito emocional, dicha prueba evidencia la facilidad con que se forman vínculos percibidos como recíprocos, aunque sean artificiales.
El caso de Replika nos muestra que, más de setenta años después de la propuesta de Turing y más de cincuenta años tras ELIZA, seguimos atrapados en la misma pregunta: ¿hasta qué punto puede una máquina integrarse en nuestra vida emocional como si fuera un vínculo real?
El análisis de la ficción y la investigación empírica revelan un punto común: La IA puede suplir ciertas necesidades emocionales, pero nunca sustituye la reciprocidad genuina de un vínculo humano. La dependencia hacia sistemas artificiales representa un riesgo creciente, en especial para jóvenes y personas socialmente vulnerables. No obstante, reducir esta transición a una amenaza sería simplista, ya que también abre nuevas posibilidades: quienes enfrentan dificultades sociales encuentran en las máquinas un espacio seguro para expresarse. La clave está en no elegir entre humanos o algoritmos, sino aprender a convivir en una realidad híbrida donde ambos tipos de interacción coexisten, recordándonos que, aunque las máquinas hablen, la verdadera conversación sigue siendo un arte profundamente humano.
La narrativa melancólica de Her, la sátira mordaz de South Park y los hallazgos de la psicología convergen en una advertencia clara: la IA refleja nuestras necesidades y debilidades, pero el verdadero reto está en cómo los humanos gestionamos esa relación, que se encuentra en una frontera entre la utilidad funcional y el riesgo emocional. Por ello, la ética, regulación y educación digital se vuelven indispensables para que la IA sea un complemento y no un sustituto de la vida humana.
La sátira televisiva nos recuerda que la inteligencia artificial no es tanto un peligro en sí misma como lo es la incapacidad humana de usarla con criterio. El problema de fondo no es si debemos emplear la IA, sino hasta dónde permitiremos que colonice nuestros espacios. El reto está en elegir entre depender de un código que siempre nos da la razón o preservar la riqueza del diálogo humano, con toda su incomodidad, imperfección y autenticidad.
Por Natalia Hernández Santelmo
La violencia es un hábito que podemos cambiar
Por Irving González Meraz
La violencia nunca se fue, sólo se transformó
Por Isaac Márquez Vicente
Hablar de paz es hoy una necesidad política
Por Abigail Huitzil Ortega
El miedo no debería ser parte del plan de estudios
Alan Omar Cruz Robles
Cómo las plataformas moldean y radicalizan identidades