Educación social para la paz
Por Natalia Hernández Santelmo
La violencia es un hábito que podemos cambiar
Facultad de Ciencias Políticas y Sociales
Facultad de Ciencias Políticas y Sociales
La inteligencia artificial se ha insertado de manera rápida y certera en múltiples aspectos de nuestra vida, generalmente con el objetivo de facilitar y agilizar la satisfacción de diversos tipos de necesidades, desde reducir considerablemente el tiempo para realizar una tarea hasta funcionar como consejero personal; estas nuevas tecnologías han cambiado nuestra forma de ver y vivir la realidad a una velocidad vertiginosa. Pero creada en esta lógica facilitadora, ¿puede entonces también interceder con nuestra responsabilidad afectiva, con el desarrollo y ejercicio de la misma?
En esta nueva era en la que se ha comprobado que herramientas de IA como ChatGPT y Gemini han comenzado a ocupar un lugar importante a nivel emocional para miles de personas, volviéndose un lugar seguro y constante para desahogarse y recibir apoyo a todas horas, los casos de dependencia emocional hacia los chatbots se han disparado considerablemente.
El 7 de agosto de 2025, OpenIA actualizó por quinta ocasión al famoso ChatGPT, se integraron modificaciones que respondían a las reiteradas declaraciones de Sam Altman, el CEO de la empresa, donde expresaba su gran preocupación sobre la dependencia que muchos usuarios podían generar con el chatbot, por lo que además de mejorar la calidad de investigaciones y programación, la actualización también se volvió más “fría en sus respuestas”, según los usuarios.
En la red social Reddit comenzaron a circular múltiples comentarios de los internautas quejándose de la nueva situación y hablando de la herramienta digital como si fuera un amigo o familiar muy cercano, e incluso declarándose afectados de manera notable debido al cambio.
De esta manera reafirmamos la hipótesis de que en efecto, la IA es utilizada de manera frecuente para resolver temas emocionales personales; pero esta no solo es utilizada para desahogarse, sino incluso para consultar decisiones, pedir consejos y generar “guías” para interacciones humanas reales.
Es decir, existen también usuarios que utilizan estas herramientas como medio de escape ante las responsabilidades emocionales o incomodidades que suelen ser inevitables en la formación de vínculos socio afectivos. Por ejemplo, si un usuario decide que es momento de terminar su relación, en lugar de enfrentarse a cargar con la responsabilidad de la ruptura o con el discurso que la ocasione, puede simplemente redactar un prompt para que el chatbot analice la situación y le dé el discurso indicado según las necesidades del internauta.
Pero, ¿esto ya se había visto?¿Tiene bases teóricas?
Esta situación puede exacerbar de manera considerable lo planteado por Zygmunt Bauman en su obra Amor líquido, donde planteaba que el uso desmedido de las redes sociales abonaba a la creación de vínculos efímeros y flexibles que buscaban solo satisfacer necesidades emocionales momentáneas, brindando la posibilidad de conectar fácilmente y desconectar en cualquier momento sin gran responsabilidad.
De esta manera, el uso desmedido la inteligencia artificial como herramienta de escape a la necesaria incomodidad emocional, sigue contribuyendo a la idea de Bauman en la que la sociedad contemporánea se sumerge cada vez más en la vorágine frágil, cambiante y vulnerable de lógicas del consumo trasladadas a los vínculos interpersonales, dejando a las personas atrapadas entre el deseo de intimidad y el miedo a perder libertad.
Por Natalia Hernández Santelmo
La violencia es un hábito que podemos cambiar
Por Irving González Meraz
La violencia nunca se fue, sólo se transformó
Por Isaac Márquez Vicente
Hablar de paz es hoy una necesidad política
Por Abigail Huitzil Ortega
El miedo no debería ser parte del plan de estudios
Alan Omar Cruz Robles
Cómo las plataformas moldean y radicalizan identidades