¿Volveré a ser quien era antes de usar ChatGPT?
Por: América Gabriela Salazar Morales
Cada día dependo un poco más de la IA
Escuela Nacional de Trabajo Social
Escuela Nacional de Trabajo Social
En los años recientes el tema de la salud mental en la vida universitaria ha dejado de ser un tabú, y cada vez es más considerada una cuestión prioritaria. Aspectos como la ansiedad y la depresión han ido ocupando espacios en la educación superior. En la Facultad de Estudios Superiores Iztacala de la Universidad Nacional Autónoma de México (UNAM) se encontró que aproximadamente el 40 % de la población estudiantil presenta síntomas de ansiedad y alrededor del 30% al 35 % muestra signos de depresión (UNAM, 2024). Esta realidad comprueba que los problemas emocionales no son un asunto menor, sino una realidad que tiene un impacto considerable en la vida académica.
Ante esto han surgido aplicaciones que funcionan como posibles apoyos emocionales inmediatos que ofrecen un acompañamiento personalizado que va desde la interacción vía chats en tiempo real, el seguimiento del estado de ánimo, hasta sesiones breves que simulan procesos de terapia. Un ejemplo de aplicación en contextos mexicanos sería la llamada Psynder, desarrollada e implementada en la UNAM, misma que brinda a las personas usuarias una experiencia de inteligencia artificial para mitigar las barreras sociales, así como para acceder al apoyo psicológico (UNAM Global, 2023). Sin embargo, aunque estas tecnologías pueden ayudar a reducir los tiempos de espera o a servir como un primer contacto, es importante cuestionarse hasta qué punto pueden sustituir al apoyo profesional y humano que resulta esencial en la atención de la salud mental dentro de las universidades.
Como alumnos de Trabajo Social esta tendencia propone también un debate importante a la hora de hablar del acompañamiento emocional: ¿Qué tipo de apoyo puede ser valioso si proviene de una máquina? ¿Qué cuestiones podemos dejar en manos de chats automáticos para cuidar las emociones de adolescentes que, además, viven en ámbitos de desigualdad, precariedad económica o de la sobrecarga académica?
Un problema real, una solución automática
En las redes sociales hay anuncios de asistentes virtuales que aseguran que “escuchan cuando nadie más puede”. Ofrecen análisis en un clic, en función de un texto escrito o de una voz transmisible; y, para la mayoría de los estudiantes, estos servicios pueden ser una alternativa rápida a la espera para ser atendido por un servicio de salud mental de la universidad, o a la misma falta de servicios. Pero, es pertinente preguntarnos: ¿Cuál es el coste de la sustitución de la atención profesional mediante estas alternativas virtuales? El trabajo social invita a pensar en los factores que rodean a la persona, ya sea en el entorno social, económico y familiar, la desigualdad, la presión del alumnado por sus estudios o las redes de atención que significan situaciones reales de bienestar. La inteligencia artificial puede dar respuesta a preguntas de forma ilimitada, mas no investiga las realidades que dan origen a cada consulta. Puede hacer un análisis de palabras, pero no de silencios, ni de emociones contradictorias o de gesticulaciones no verbales. No tiene un conocimiento contextual sobre el territorio, la cultura y las relaciones que en cada caso fortalecen o debilitan a los alumnos.
El algoritmo no abraza
Las intervenciones sociales se centran en la persona, su historia, sus redes y sus emociones. Por el contrario, la inteligencia artificial combina información de forma algorítmica, cualquier vivencia es reducida a datos, patrones y predicciones. Un artículo publicado en la MIT Technology Review (2022) evidenció cómo algunas aplicaciones de la salud mental con inteligencia artificial no detectaron mensajes de contenido suicida o, incluso, respondieron con mensajes prefabricados ante declaraciones de abuso, almacenaron datos sensibles sin contar con un consentimiento informado e incluso vendieron información emocional a terceras partes. El problema no es únicamente que no sean eficaces, sino que pueden causar daño. Son útiles para detectar tendencias o prevenir riesgos, pero nunca sustituirán el contacto humano. Las personas recurren a estas herramientas en momentos de crisis, y lo que reciben son respuestas que trivializan el dolor o dejan de detectar las alarmas. Entonces, ¿tecnología para quién?
Esta situación refleja una doble brecha: por un lado, la falta de acceso a estas aplicaciones, dado que no todas las personas cuentan con dispositivos y conexiones con suficiente calidad; por el otro, la cultural, ya que muchas de estas herramientas han sido pensadas en inglés y/o en contextos que no remiten a la realidad mexicana. De esta forma se genera la falsa ilusión de que se puede acceder a un proceso de apoyo psicológico, en tanto que no hay un acceso equitativo.
La inteligencia artificial podrá ayudar a organizar datos o encontrar formas de abrir diálogos complejos; sin embargo, en contextos de desigualdad y malestar estructural, lo que se necesita es el apoyo profesional, ético, contextual y holístico. Desde la mirada del trabajo social debemos cuestionar los fines de estas tecnologías, quién las diseña y qué clase de bienestar mental persiguen. La IA puede ser de gran ayuda solo si se utiliza como punto base de toda intervención social, aquella que parte del reconocimiento, la empatía y la capacidad de “abrazar” la realidad de todos los sujetos.
Por: América Gabriela Salazar Morales
Cada día dependo un poco más de la IA
Por: Jesica Martínez Torres
La revolución más importante es la del pensamiento
Por: Diego Huerta Lezama
El uso de la IA en el arte está carente de significado
Por: Juan Carlos Lira González
Revolucionar el pensamiento en la era tecno-cognitiva
Por: Víctor Abiuth González López
Entre la diversidad y el algoritmo