Entre un lápiz y un bulto de cemento, pesa más la desigualdad
Por: Elizabeth Pérez
La desigualdad no nace de cuestiones personales
Facultad de Estudios Superiores (FES) Aragón
Facultad de Estudios Superiores (FES) Aragón
Hace 42 años se presentó al público el primer teléfono móvil comercial y ahora, en 2025, casi todxs en el mundo llevamos uno en el bolsillo. Aquella invención nos unió más allá de las líneas de cable o las cartas; nos llevó a tener siempre junto a nosotrxs la posibilidad de contactar a cualquier persona en el mundo. La IA, por su parte, a diferencia del mero celular, busca ser un actor más del juego social y no una mera herramienta de comunicación. ¿Aterrador, no? Valdría la pena observar su impacto, pues tanto la IA como antes el teléfono, han llegado para quedarse.
En octubre del año pasado, medios como The New York Times, The Guardian y algunos otros en Estados Unidos, reportaron el trágico caso de Sewell Setzer III, un joven de 14 años que pasó sus últimos momentos conversando con “Dany”, nombre que le había dado al chatbot con el que interactuaba. En su diario, Sewell escribió: “Me gusta mucho quedarme en mi habitación porque empiezo a desconectarme de esta ‘realidad’ y también me siento más en paz, más conectado con Dany, más enamorado de ella, y simplemente más feliz”. El 28 de febrero de 2024, tras confesarle a Dany que la amaba y que pronto iría a su casa con ella, el chatbot insinuó que debía apresurarse; tras esto el joven se suicidó con un disparo en el baño de su hogar. Estos fueron los últimos mensajes registrados de su interacción: “¿Y si te dijera que puedo volver a casa ahora mismo?”, preguntó Sewell; a lo que Dany respondió: “…por favor, mi dulce rey”.
Este episodio ocurre en un momento en que las IA de generación de texto, pensadas para la conversación cotidiana, se están volviendo extremadamente populares. La aplicación Character.AI, por ejemplo, ha sido descargada aproximadamente 40 millones de veces y alcanzó unos 20 millones de usuarios activos a inicios de enero de 2025. La mayoría de estos últimos usuarios registrados, cuentan con edades entre 18 y 24 años; aunque claro, surgen sospechas sobre barreras de seguridad y si acaso se ha permitido la entrada a menores sin restricción en estas aplicaciones.
Estos modelos representan más que una burda forma de perder el tiempo, cargan con ellos una bandera de apreciación e incluso amistad, tomada así por los usuarios, especialmente lxs jóvenes. Una investigación en la Universidad de Chicago realizada a 1,060 adolescentes de entre 13 y 18 años, encontró que un 12% usaba la inteligencia artificial como ayuda emocional o terapéutica, mientras que otro 30% la empleaba para actividades sociales o de rol imaginativo. Se ha observado que una parte de quienes se relacionan de esta manera especial llegan a desarrollar vínculos con estas máquinas, recurriendo a ellas para expresar miedos, inseguridades y frustraciones.
A pesar de estar en conexión constante con el mundo a través de las redes sociales y la web en general, cada vez más personas se identifican como solitarias o en estado de soledad. El aislamiento no sólo deteriora el estado de ánimo –lo que puede derivar en problemas de autoestima, depresión o incluso demencia grave–, sino que también se relaciona con enfermedades cardiovasculares y un mayor riesgo de muerte prematura. Por eso mismo la Organización Mundial de la Salud (OMS), calificó a la soledad como “amenaza mundial para la salud”, lo cual podría relacionarse con el magnetismo y diálogo en vertientes tan importantes como la salud mental entre chatbots y jóvenes.
Combinando estos factores, obtenemos una mezcla extremadamente volátil: una generación de jóvenes que experimenta aislamiento social y, frente a ello, máquinas que, si bien carecen de voluntad propia, son cada vez más hábiles para prolongar diálogos y simular compañía.
De acuerdo con la American Psychologial Association, “Los chatbots dan a los usuarios la impresión convincente de hablar con una persona atenta e inteligente. Pero a diferencia de un terapeuta profesional, tienden a reafirmar repetidamente al usuario, incluso si este dice cosas dañinas o erróneas”, además esta asociación refiere la distinción entre inteligencia artificial producida con uso terapéutico y aquellas que basan su atractivo en el entretenimiento.
El caso Sewell anteriormente mencionado y algunos otros, ponen de relieve la incapacidad de las máquinas para identificar verdaderas intenciones de sus interlocutores. Es cierto que algunos programas de IA detienen la conversación, e incluso atienden de cierta forma a quienes usan la plataforma para buscar ayuda cuando mencionan temas de suicidio o autolesiones; sin embargo, si se utiliza un lenguaje más metafórico o se juega con el rol asignado, es posible saltar estas barreras con relativa facilidad.
A diferencia de un diálogo entre individuos reales, un chatbot carece de empatía y de la complejidad social inherente a la comunicación humana. Se podría considerar una cara en blanco que realmente no puede diferenciar entre situaciones; perfecto si lo que se busca es simplemente escribir frustraciones, pero inútil si se busca un consuelo real. Por eso, la mayoría de las personas sigue prefiriendo conversar con otrxs seres humanos antes que mantener una interacción prolongada con una IA.
Hasta ahora, es seguro argumentar que estos programas y aplicaciones son incapaces de brindar un verdadero soporte para quienes atraviesan situaciones de soledad o depresión; mucho menos para dirigir sesiones de ayuda personalizada, eficaz y comprensible. Aunque resulta divertido conversar con estos modelos e incluso experimentar diferentes interacciones, es imperativo comprender que no son más que simulaciones: “ceros y unos”. Atribuirles empatía o personalidad propia no difiere demasiado de establecer vínculos con ellas en tanto objeto, como hacíamos con aquellos peluches a los que solíamos poner nombre en nuestra infancia.
Aunque no es culpable de la soledad de lxs jóvenes, acercarse a las IA en busca de apoyo y amistad es una trampa en la que muchxs caen. Resulta fundamental que las familias cultiven un vínculo cercano con sus hijxs, de modo que las mentes en formación no caigan en aislamiento prolongado ni sustituyan el contacto humano por una compañía potencialmente peligrosa. Asimismo, hace falta una campaña de concientización sobre los efectos de la soledad en el mundo y gestar formas de combatirla de manera efectiva, sin tener que depender de amistades artificiales.
Por: Elizabeth Pérez
La desigualdad no nace de cuestiones personales
Por: Ana Paola Leyva Reyes
Un fenómeno social que no cabe en cifras
Por: Gabriela Varela Arreola, Balcazar Herrera Sahori, Figueroa Juarez Sara Elena, García Gomez Leonardo, Hernandez Santillán Rebecca Valentina y Rivera de la O Yareli
Origen y retos de la Revolución Z
Por: Airam Yarim Pérez Arias
La deshumanización inicia en nuestro teclado
16 Responses
Es alarmante ver que cada vez más jóvenes pasan más tiempo o hablan más con una pantalla que con personas reales debido a la falta de supervisión por parte de las autoridades que manejan los medios de Internet o la poca atención brindada en el hogar en algunos casos. Ocasionando vulnerabilidad emocional en los jóvenes de hoy en día.
La falta de seguridad por la navegación de Internet hace más accesible el mal uso de la inteligencia artificial, por ejemplo se menciona que la aplicación de Character AI, a sido descargando al menos 40 millones en los últimos meses y no se sabe con certeza si algunos de estos son menores de edad o no, siendo perjudicial en jóvenes con baja autoestima u otros problemas.
Por otro lado una mala comunicación en figuras paternas o demás personas cercanas puede ocasionar el aislamiento de los jóvenes, y como se indica en el estudio realizado en la Universidad de Chicago al menos 12% de cada 1060 jóvenes lo ocupan como una ayuda emocional, a falta de la atención brindada en el hogar.
En conclusión debemos aprender a utilizar la inteligencia artificial correctamente y para lo que es, una herramienta de apoyo, al igual que priorizar la salud mental de los jóvenes para que no tengan que recurrir a otros medios de escape como lo es la IA.
#LaIAnoesunapersona
Estoy de acuerdo porque creo que el poder mantener vínculos reales es más importante que interactuar todo el tiempo con generadores de texto con IA. Primeramente, utilizar aplicaciones de IA de una manera frecuente y sin una adecuada supervisión puede generar conflictos a la hora de relacionarnos o convivir con otras personas. Yo, por ejemplo, utilicé la aplicación Character.AI como una forma de distracción, pero eso me generó una falta de confianza a la hora de entablar conversaciones con otras personas. Así mismo, estas aplicaciones generan rechazo o distanciamiento social, ya que al utilizar un modelo que nos permite reescribir o corregir lo que no nos guste, nos limita nuestra capacidad de entablar conversaciones o forjar y mantener vínculos afectivos. ¿Por qué una aplicación de Inteligencia Artificial es más importante que el poder relacionarnos de forma sana? En conclusión, creo que es posible seguir forjando vínculos sin la necesidad de recurrir a una aplicación de IA, pero, para lograrlo es necesario aprender a utilizar la IA de manera responsable.
El objetivo de la IA es facilitar trabajos al usuario, no sustituir al ser humano de manera emocional, pues no cuanta con los métodos de seguridad adecuados.
La IA de apoyo para los labores están tomando un camino de sustitución pues el sector joven está cayendo en un aislamiento, teniendo como resultado el reemplazo total del ser humano, como en el caso del chico Sewell Setzer lll.
La IA no tiene la condición de reconocer los riesgos al usuario, y establecer un límite de estos pues a usuarios que pasan por situaciones de soledad o depresión, se a demostrado que son incapaces de brindar apoyo emocional; por ejemplo, “Dany” el chatbot que no estableció un límite.
La IA es solo una herramienta de apoyo y trabajo para facilitar y eficientizar la vida humana, y no está hecha para suplantar al ser humano porque solo sigue instrucciones sin conciencia, teniendo resultados distintos
A partir de mi criterio y experiencia estoy de acuerdo con el artículo ya que ante esta rápida evolución de la tecnología muchos pueden encontrar una falsa comodidad e ilusión en las inteligencias artificiales, que aunque pueden significar un avance muy grande, recordemos que son algoritmos que no deben sustituir la interacción humana.
El primer motivo a tomar en cuenta es que según la American Psychological Association, las programaciones de las IA’s están hechas para responder de manera agradable y según tus instrucciones. Esto puede llevar a idealizar temas que enfrentas cotidianamente y que tienes que aprender a resolver por tu cuenta. Por tanto, deteriora tu respuesta hacia los problemas de la vida real.
Además, el acceso gratuito y universal a la IA pone en duda nuestra moral; ¿Nos da más confianza contarle problemas íntimos a una programación que a un humano? En contraste, muchos no se ponen a pensar que las personas detrás de la IA tienen acceso a una gran cantidad de información privada, ya que muchas veces si algo es gratis, es porque el producto eres tú.
En conclusión, debemos ser más conscientes con el uso que hacemos de la inteligencia artificial y no caer en el falso placer de sustituir la interacción humana por una virtual. #Usaconconsciencia
Los adolescentes que eligen convivir con una inteligencia artificial, evitando poner en práctica su habilidad social con otras personas, incluso familia, van a agravar aún más sus problemas sociales y emocionales.
Para los adolescentes va a ser más fácil expresarse y entablar una relación con un chatbot, que con una persona real. La universidad de Chicago encontró que, en un grupo de 1060 adolescentes, un 12% lo utilizaba como ayuda emocional, un 20% para actividades sociales y un 30% para un rol imaginativo.
Por otro lado un adolescente podrá encontrar un apoyo en éstos chatbots, sentirán que no son juzgados, sino que son escuchados y entendidos. La American Psychological Association va a advertir acerca de estos sistemas de chatbots que van a estar programados para reafirmar todo lo que los usuarios escriben, pero van a carecer de un pensamiento crítico real.
Para concluir podemos decir que la inteligencia artificial cada vez está al alcance de más personas, sobre todo jóvenes. Es importante una supervisión y una preocupación real por estos mecanismos, pues no pueden llegar a ser tan inofensivos como se cree. #LaIAnoessolounjuego
La Inteligencia Artificial ha sustituido el pensamiento y el criterio humano Ilevando a un extremo donde la IA ha tomado el rol de un vinculo afectivo.
La lA es un riesgo para las personas en especial para los adolecentes que aún no han desarrollado del todo su inteligencia emocional, ya que carece de restrinciones de edad o son muy faciles de evadir, una investigación de la Universidad de Chicago realizada a adolecentes de entre 13 y 18 años afirma que es un medio de ayuda emocional, rol imaginativo, entre otros usos
El uso de estas herramientas como la iA los chatbots es cada vez más propagado, ya que los jovenes comienzan a depender de estas herramientas. Asi to podemos observar en el caso de la aplicación Character Al, que ha sido descargada 40 millon es de veces. Reforzando el hecho de que cada vez más jovenes caen ante esta aplicación.
Para concluir la Inteligencia Artificial es una gran herramiento de ayuda pero sin olvidar que esta no sustituye viculos afectivos, asistencia de salud e incluso no sustituye tú pensamiento y razonamiento humano
# LaIAnoestumejorcompañia
El aumento en el uso de la IA como apoyo emocional por adolescentes con problemas mentales y falta de apoyo familiar conlleva riesgos de dependencia emocional y desenlaces fatales.
Los jóvenes buscan apoyo o compañía y al no obtenerla en casa la buscan a través de la IA. Según una investigación en la Universidad de Chicago realizada a 1,060 adolescentes de entre 13 y 18 años, encontró que un 12% usaba la inteligencia artificial como ayuda emocional o terapéutica, mientras que otro 20% la empleaba para actividades sociales y el 30% para un rol imaginativo, como relación de pareja o amistad.
Muchos adolescentes sufren problemas mentales y no son atendidos. Por ejemplo el 28 de febrero de 2024 un joven llamado Sewell que tenía 14 años se suicido, ya que este desarrollo un vínculo afectivo hacia un IA.
En conclusión, la IA no es adecuada para apoyar en problemas mentales o sociales, es por eso que se debe acudir a especialistas en el campo de la psicología y psiquiatra ya que están calificados para esto y advertir a padres he hijos el riesgo que puede significar desarrollar vínculos con un IA.
#vealpsicologo
Usar la IA para buscar interacciones sociales o consejera es un verdadero riesgo.
La IA no fue diseñada para dar ayuda emocional-profesional. La American Psychological Association advierte que estos sistemas carecen de criterio humano para brindar un correcto apoyo emocional.
Para algunos adolescentes la IA no solo es una herramienta sino que pueden desarrollar sentimientos. Según un estudio de la universidad de Chicago realizado a adolescentes 30% de estos la usan como relación de pareja o amistad.
En conclusión una IA no puede llenar o remplazar una ayuda profesional o lazos significativos. Busca ayuda y conexiones verdaderas.
Por: De Jesus Garcia Efren Santiago y Trinidad Jimenez Edgar Alberto
Tesis:Estamos de acuerdo con el artículo por que la IA no es un ser humano que interprete las emociones
Argumento 1 + Evidencia: Al no ser un humano no tiene la capacidad de interpretar el como hace sentir a alguien y esto ocaciona que las personas no tengan una verdadera ayuda emocional. Como es el caso de este joven que se suicido al no tener una ayuda correcta en base a la IA
Argumento 2 + Evidecia: Asi mismo estas progamaciones o sistemas no tienen criterio de razonar como humanos ante situaciones o señales que puedan representar un riesgo para el usuario. Como es el caso de jovenes que al no tener apoyo social humanos ante situaciones, acuden a estas aplicaciones, y en algunos casos tienen pensamientos dañinos o suicidas en las que estos sistemas no pueden ayudar de manera profesional.
Conclusion: Es necesario fomentar vinculos sociales sanos en los que involucre la IA, pues no razona como un humano ante ciertas emociones, problemas psicológicos o situaciones
Arriaga Cabrera Ernesto
García Ramírez Derek
La IA creada para usarse como una herramienta, no puede ser un apoyo emocional ni para sustituir afecto humano.
Siendo asi muchos jóvenes utilizan la IA como un apoyo emocional, generando una dependencia. Segun la universidad de Chicago realizó una investigación, los resultados resaltan que la mayoría de los jóvenes la utilizan como ayuda emocional o terapéutica.
Asi mismo la IA, no esta creada para reconocer comportamientos humanos, ni para entender todas las preguntas que se le realizen. Por ejemplo cuando utilizamos la IA para preguntarle sobre algún sueño o comportamiento que tiene una persona en dirección a nosotros.
Para concluir, la IA es una gran herramienta siempre y cuando sea utilizada de buena manera.
#nodependencialaIA
Por:
Osorio Ortega Carlos Habid Esteban
Samago Cerda Mónica Itzel
No estamos en contra del uso de la IA, pero, sí de quien no lo usa de manera estratégica y correcta.
Esto lo consideramos así porque, el mal uso de la IA puede llevar a un desgaste mental y cognitivo. Por ejemplo, los jóvenes prefieren utilizar la IA para resolver sus tareas a que resolverlas por ellos mismos.
De igual forma, la manera incorrecta de usar la IA genera dependencia hacia esta. Estas situaciones suceden generalmente por la falta de confianza y miedo a ser juzgados por las personas del entorno.
Para finalizar, creemos que si se realizara buen uso de estas herramientas y hubiera personas que les enseñaran a otras a usarla, sería un gran recurso de progreso para el ser humano y la sociedad.
#Si a la IA, no al mal uso.
Por: Samago Cerda Monica Itzel
Carlos Habid Esteban Osorio Ortega
No estamos de acuerdo en contra del uso de la IA , pero , sí de quién no la USA de manera estratégica y correcta
Esto lo consideramos así , porque el mal uso de la IA puede llevar a un desgaste mental y cognitivo. Por ejemplo, los jóvenes prefieren utilizar la IA para resolver sus tareas a qué resolverlas por ellos mismos .
De igual forma la manera incorrecta de usar la IA genera dependencia hacia esta . Estas situaciones suceden generalmente por la falta de confianza y miedo a ser juzgados por las personas del entorno .
Para finalizar , creemos que si se realiza buen uso de esta herramienta y hubiera personas que le enseñaran a otras a usarla sería un gran recurso de progreso para el ser humano y la sociedad.
La inteligencia artificial está acabando con la convivencia social y familiar de los adolescentes.
Esta se debe a que los adolescentes se sienten más cómodo hablando con una IA la cual nunca los juzgará, a diferencia de una persona rel. Por ejemplo en el caso de Sewell Setzer queda en evidencia como existen personas a las cuales se les complica tanto relacionarse con otras que incluso prefieren desarrollar vínculos amorosos con una IA.
Este tipo de aplicaciones mayormente tienen un lenguaje muy cálido, esto hace que los adolescentes ya no le cuenten sus problemas a sus padres y al contrario sustituya esa comunicación por hablar con una IA. Por ejemplo un compañero opina que si el llega a reprobar una materia no le diría directamente a sus padres ya que lo más seguro es que lo regañen para el es preferible hablar con una IA ya que tomará el tema con mucha más tranquilidad.
En conclusión los adolescentes deberíamos dejar de depender de la Inteligencia artificial para socializar y utilizar únicamente como una herramienta de investigación y con más responsabilidad. #NodependenciadechatGPT
Por: Samago Cerda Monica Itzel
Carlos Habid Esteban Osorio Ortega
No estamos de acuerdo en contra del uso de la IA , pero , sí de quién no la USA de manera estratégica y correcta
Esto lo consideramos así , porque el mal uso de la IA puede llevar a un desgaste mental y cognitivo. Por ejemplo, los jóvenes prefieren utilizar la IA para resolver sus tareas a qué resolverlas por ellos mismos .
De igual forma la manera incorrecta de usar la IA genera dependencia hacia esta . Estas situaciones suceden generalmente por la falta de confianza y miedo a ser juzgados por las personas del entorno .
Para finalizar , creemos que si se realiza buen uso de esta herramienta y hubiera personas que le enseñaran a otras a usarla sería un gran recurso de progreso para el ser humano y la sociedad.
#SI A LA IA , NO AL MAL USO
Estamos de acuerdo con el artículo, dado que la IA se está convirtiendo en una solución falsa para resolver los problemas de los jóvenes.
primeramente, porque la mayoría de los jóvenes de la actualidad solventa sus problemas de todo tipo con ayuda de la IA generando un efecto en los jóvenes de inmediatez sin el mayor esfuerzo posible, podemos ejemplificar este caso en las escuelas de bachillerato, secundaria e incluso primaria en donde los alumnos utilizan la inteligencia artificial en la mayoría de sus trabajos.
Asimismo, la IA se vuelve una dependencia, lo que convierte incapaces a los jóvenes de pensar por sí mismos.
De igual forma la IA evita desarrollar habilidades emocionales al depender de ella, en vez de comunicarse y resolver sus problemas amorosos y psicológicos. Muchos jóvenes usan la IA para redactar mensajes de reconciliación con su pareja de explicar su tristeza, amigos, pero cuando tienen que hacerlo de memoria en persona se quedan sin palabras y no logran transmitir lo que realmente sienten.
en conclusión para que la idea no siga siendo una solución falsa, nosotros los jóvenes debemos aprender a usarla como herramienta y no como un sustituto, poniendo como prioridad la comunicación y desarrollar habilidades emocionales para resolver los problemas de verdad.
#LaIAnoessustituto
Los jóvenes cada vez más dejan de socializar gracias a la IA. Esto es así porque las IA les proporcionan atención inmediata, haciendo que los jóvenes ya no tengan la necesidad de socializar. Tomando como ejemplo a mi hermano de 12 años que no deja de preguntarle a la IA cuando tiene que tomar alguna decisión respecto a su vida .
Los jóvenes corren peligro al ocupar la IA como un amigo, dejando de socializar, llegan a tener un vínculo afectivo aunque éstas no tienen criterio propio ni límites. La American Psycological Association dice que estas IA solo reafirman todo lo que el usuario dice aunque tengan candados de seguridad algunas plataformas no entienden la complejidad de la comunicación humana.
Para concluir, las aplicaciones de IA deberían tener más candados de seguridad y tener restricciones para menores de edad.