Entre un lápiz y un bulto de cemento, pesa más la desigualdad
Por: Elizabeth Pérez
La desigualdad no nace de cuestiones personales
Facultad de Ciencias
Facultad de Ciencias
Ah usted, quien sea que lea, le tengo malas noticias: nos estamos transformando en inteligencia artificial. Desde la creación del —por ejemplo— primer modelo ChatGPT alrededor de hace aproximadamente tres años, el uso indiscriminado de las IA se ha masificado a puntos inimaginables. Hoy en día es común ver por las calles carteles publicitarios con imágenes hechas por IA o, bajo otras circunstancias, encontrarse a estudiantes usando chatbots para resolver tareas. De este modo, independientemente de si alguien como individuo la use o no, todos nos encontramos expuestos a su contenido; esto ha tenido varias consecuencias más allá de lo esperado.
El instituto Max Planck para el Desarrollo Humano definió un conjunto de expresiones, y las nombró “palabras-gpt”, debido a que son términos usados con regularidad por este modelo de texto y no tanto en la vida cotidiana, tales como: delve (profundizar o ahondar), adept (adepto), meticulous (meticuloso o meticulosamente), realm (esfera o campo de un tema), intricate (intrincado), underscore (destacar); en el estudio se comparó su uso en varias circunstancias escritas y habladas a lo largo de los años. Como resultado, la investigación descubrió un aumento significativo de su empleo tras la popularización de dicha tecnología —por lo menos hablando del lenguaje inglés—. Parece ser que la mera existencia de las IA en nuestra vida cotidiana afecta la manera de comunicarnos. ¿Qué implica? Pues, aunque no lo parezca, los descubrimientos obtenidos aquí pueden conllevar a hechos terribles.
Para varios ensayos se suele citar con frecuencia la popular novela literaria de George Orwell, 1984, en el libro se relata una realidad distópica y todos los mecanismos que utiliza el poder en este mundo para controlar a las masas, entre ellos, la creación de un nuevo lenguaje de modo que sea imposible criticar al régimen, lo que se ve reflejado en su famoso lema “La guerra es la paz, la libertad es la esclavitud, la ignorancia es la fuerza”. El concepto de la neolengua de Orwell ha tenido un fuerte impacto al compararse con fenómenos actuales, un ejemplo es el erróneo acercamiento de este tema al lenguaje inclusivo, debido a la falta de un grupo de poder claro y un motivo político real, más allá de extender la concepción de género. Un caso más cercano a una neolengua es la asociación de la palabra “comunismo” con “satánico”, para posteriormente englobar a todas las ideas que difieren del statu quo como “comunistas”, aquí hay un grupo de poder claro con objetivos evidentes.
Por su parte, las IA tipo chatbot también poseen —aunque no lo parezca— un sinfín de ideales políticos y económicos, por ello no es un secreto que, para este punto, casi todas las empresas de tecnología tengan su propia inteligencia artificial —además de ChatGPT se encuentran Gemini, Copilot, Meta-AI, DeepSeek, entre otras—, en la búsqueda de aparentar estar a la vanguardia tecnológica para atraer accionistas, pero también porque nos encontramos con un sector nunca antes explorado y con un alto potencial de ganancias, al sustituir labores antes sólo humanas. Al mismo tiempo, es inevitable observar las prácticas monopólicas que buscan ejercer.
Con respecto al modelo anterior, Gpt5 se enfoca en unificar las diversas funcionalidades que tiene una inteligencia artificial, mucho más allá de tratarse de un simple generador de texto. También cada empresa busca fomentar su uso facilitando su acceso desde sus respectivas plataformas —Windows, Facebook, Google, etc—. Esto es una batalla por obtener el mayor terreno en este nuevo mercado. Análogamente con el ejemplo de la neolengua, nuestro Gran Hermano serían las empresas de tecnología, de las que es bien conocida su ausencia de moral al traficar datos personales, manipular o volver adictos a sus consumidores, y cuyo objetivo es el monopolio. En cuanto competencia, cualquiera de las anteriores IA están en una etapa muy temprana para promover una ideología; sin embargo, el estudio de Max Planck para el Desarrollo Humano muestra cómo sí que son capaces de hacerlo.
Más preocupante serían las maneras inesperadas para lograr retener y atraer nuevos clientes. De entre ellas, destaca una: de las indiscutibles ventajas que poseen estos modelos de texto, es la capacidad de ofrecer un servicio personalizado, esto es llamado en publicidad como customer-centric marketing, que consiste en adaptar el producto a las necesidades del consumidor. Así, la inteligencia artificial puede actuar por momentos como un programador, un traductor, un dibujante, pero a la vez como terapeuta o incluso como amigo.
Sin embargo, se trata de sólo eso: una actuación. Hablando particularmente de ChatGPT, parece tener una restricción por tomar acciones confrontativas frente a sus usuarios. Si usted, lector, trata de convencer al modelo Gpt5 de alguna ideología política, económica o social —sin contar creencias directamente segregacionistas como la nazi—, eventualmente la tomará como válida. Dicha característica trata de generar un grado de “conexión” con el usuario, no sólo en tanto un ámbito político y social, sino emocional.
En el canal de YouTube de Theo Von, hay una entrevista con el CEO de Open-Ai, Sam H. Altman. De entre todos los temas que se tocaron, destacó cómo él cuenta acerca del uso de la inteligencia artificial como un terapeuta personal. Altman revela cómo principalmente la gente joven la usa para recibir consejos de vida, y al mismo tiempo, cómo las regulaciones acerca de la protección de información sensible médica no aplican a las IA. En cualquier momento estos datos pueden hacerse públicos o usados para alimentar su algoritmo.
Personalmente, considero que es muy triste que esta información tan importante sólo se haya difundido oficialmente en una entrevista de internet en inglés, y a la vez no se encuentre dentro de la misma aplicación como una advertencia clara. Pues se quiera o no, se sigue usando para pedir consejos de asuntos personales.
La imagen de una inteligencia artificial da aires de imparcialidad, pero como es visible, a veces suele tomar la personalización por sobre la imparcialidad. La revista VICE encontró un foro de Reddit, donde los usuarios comparten varias experiencias de cómo la IA puede alimentar delirios o episodios psicóticos.
Este, desde luego, se trata de un punto extremo, sin embargo, también podemos hablar de cómo las IA pueden encerrar a una persona en una burbuja, es decir, en la búsqueda de los chatbots para poder “congeniar” con sus usuarios se puede llegar a favorecer conductas tóxicas, narcisistas o dañinas que tenga el usuario si lo argumenta el suficiente tiempo. Como, por ejemplo, lo cuentan las personas con trastorno obsesivo-compulsivo: un usuario con esta característica cuenta cómo le pidió a ChatGPT —modelo no especificado— que decidiera por él acerca de sus pensamientos intrusivos, y cómo llegó un punto en que la inteligencia artificial concluyó que lo mejor era terminar con su relación. Aunque la persona no tomó esa decisión, cuenta cómo constantemente recae en esta IA para lo mismo, como si se tratase de una adicción.
Parece ser que en la actualidad los modelos chatbots tienen una influencia más allá de lo que esperamos. Hoy en día la inteligencia artificial parece ser capaz de influir en las decisiones personales, e inclusive, en la forma de pensar de los usuarios. Sin embargo, las advertencias acerca de su alcance se encuentran en lugares muy selectos. Las advertencias del CEO de Open-AI, más parecen una excusa para no liberar la información obtenida, que una medida real para prevenir su uso como coach de vida. Por lo mientras, la base de datos y la versatilidad de esta herramienta siguen mejorando, la idea de influencers IA cada vez se hace menos descabellada, las inteligencias artificiales cada vez se hacen más presentes en el entretenimiento, y las regulaciones legales brillan por su ausencia.
Desde mi punto de vista, es verdad que las inteligencias artifíciales sólo se tratan de herramientas que se pueden usar tanto para bien, como para mal. No obstante, hoy en día el poder de esta tecnología es controlado por empresas cuyo único fin es hacer dinero. Por el momento, no nos queda más que especular cómo uno de los instrumentos más avanzados se usa en esta lógica de consumo. ¿Se usará para adentrar a la gente en una adicción? ¿Para comerciar con nuestros datos personales?
Es un misterio, pero conforme más cosas logramos hacer, tanto la posibilidad de utopía como de distopía se hacen posibles.
Por: Elizabeth Pérez
La desigualdad no nace de cuestiones personales
Por: Ana Paola Leyva Reyes
Un fenómeno social que no cabe en cifras
Por: Gabriela Varela Arreola, Balcazar Herrera Sahori, Figueroa Juarez Sara Elena, García Gomez Leonardo, Hernandez Santillán Rebecca Valentina y Rivera de la O Yareli
Origen y retos de la Revolución Z
Por: Airam Yarim Pérez Arias
La deshumanización inicia en nuestro teclado