Anatomía de la guerra
Por: Obed Joao da Silva Botello
La guerra ya no solo se libra con armas
Facultad de Ciencias
Facultad de Ciencias
Hoy en día, el marketing de las grandes empresas insiste en encapsular cualquier funcionalidad expandida o adivinatoria como un rasgo de inteligencia. Incluso antes de la reciente popularización de los modelos de inteligencia artificial, ya teníamos celulares llamados “inteligentes”, en contraste con aquellos que apenas recibían llamadas y tenían un par de aplicaciones. Esto hace pensar que no se volvieron más “humanos” por recibir una etiqueta destinada históricamente a distinguir entre el ser humano y otros animales. Probablemente se prefirió el término “inteligencia” porque el concepto de “alma” se percibe demasiado espiritual y, por lo tanto, más susceptible al debate, aunque tampoco tengamos claro qué significa realmente ser inteligente.
Sin profundizar en la discusión sobre el alma o en las múltiples formas en que la psicología ha tratado de definir la inteligencia, me interesa resaltar que las personas saben que un celular inteligente no lo es en un sentido profundo. Nadie espera que termine una licenciatura, desarrolle una teoría física o posea rasgos que consideramos indicadores de inteligencia humana. Esta percepción está fuertemente ligada a la cultura, que asocia lo inteligente con habilidades específicas, como hacer aritmética mental rápida. Sin embargo, incluso esas capacidades no convierten a los antiguos teléfonos ni a las calculadoras en entidades equiparables al pensamiento humano. Un ser humano capaz de hacer cuentas rápidas puede parecer inteligente; una calculadora, aun haciéndolo mejor, no recibe ese reconocimiento.
Con las inteligencias artificiales ocurre algo distinto: las personas están mucho más dispuestas a percibirlas como inteligentes. La línea es difusa, y el deslinde de responsabilidad —personal, organizativo, escolar o social— se complica cuando se les atribuye uno de los rasgos más valorados en los humanos y, simultáneamente, uno de los rasgos más valorados en las máquinas: la resistencia al error. Esa combinación genera una confianza que debemos cuestionar, pues es necesario evaluar qué tan bien está fundamentada. Al final, una calculadora y una red neuronal profunda son implementaciones distintas de algoritmos. La diferencia es que la primera puede verificarse por lo limitado de sus respuestas, mientras que la segunda es tan compleja que nadie comprende realmente el proceso que sigue para emitir una respuesta.
Creo que esta confusión es consecuencia directa de una campaña de marketing que ha dotado de rasgos humanos a estos algoritmos. También se debe a demostraciones públicas cuyo propósito ha sido hacerles parecer humanos: agendan citas, sostienen conversaciones, engañan a interlocutores que no saben que la “voz” es generada por un algoritmo. Incluso el lenguaje para describir sus errores se construye por asociación a fallas de la consciencia o la cognición humanas. Ya conocemos casos en los que inventan fechas, producen referencias legales inexistentes, generan balances financieros falsos o cometen errores básicos de cálculo. A todo esto se le llama “alucinaciones”.
El término tiene dos funciones. Por un lado, refuerza la tendencia a antropomorfizar la IA para ganar la confianza social. Por el otro, evita generar percepciones negativas sobre sus intenciones, así como sobre las empresas interesadas en implementarlas en todos los ámbitos posibles. Si pensamos que la IA simplemente “alucina”, asumimos que no busca engañar, sino que atraviesa un error inocente. En el peor de los casos, se habla de que “miente”, lo cual continúa la humanización de un proceso mecánico y probabilístico. Nadie diría que un celular “miente” cuando su batería falla.
Quizás tampoco deberíamos decir que un LLM funciona mal cuando, en realidad, produce respuestas de acuerdo con su funcionamiento esperado, aunque mal calibrado. No decimos que la estufa “funciona mal” si la perilla está ajustada a un nivel incorrecto; simplemente la movemos. ChatGPT comete sus llamadas “alucinaciones” del mismo modo que genera las respuestas correctas: descomponiendo el lenguaje humano en representaciones codificadas y estableciendo relaciones probabilísticas entre sus partes. Si hablas español, sabes que es improbable colocar una palabra terminada en “o” después de “la”. Estas regularidades lingüísticas permiten a los LLM generar discursos verosímiles, pero capturar la semántica real a través del análisis probabilístico sigue siendo extremadamente difícil. Por eso Emily M. Bender los llama “loros estocásticos”: repiten con precisión y coherencia, pero no entienden.
La única forma de ajustar un modelo así es mediante la evaluación humana de la correspondencia entre lo que genera y la realidad material. En otras palabras, seguimos dependiendo de personas —idealmente críticas— para orientarlo. Y aun así, su supuesta similitud con el pensamiento humano se queda corta. No afirmo que la inteligencia humana sea inimitable por naturaleza, pero sí que aún estamos lejos de poder delegar en estos modelos decisiones importantes. De hecho, quizás tampoco deberíamos delegarles las no tan importantes.
Es irónico pensar que podemos perder el “alma” simplemente por asumir inteligente a un algoritmo, como eco del primer párrafo. Renunciamos a parte de nuestra humanidad cuando tratamos como equivalente a ella una serie de instrucciones finitas y relaciones matemáticas. Si equiparamos la cognición humana con algoritmos que no comparten la misma capacidad de concientizar la información ni de relacionarla con el entorno, corremos el riesgo de reducir la inteligencia humana a lo que un algoritmo puede hacer, en vez de tomar como referencia lo contrario. Corremos el riesgo de confundir el mapa con el territorio, como diría Alfred Korzybski.
La psicología tiene dificultades para definir inteligencia porque ésta es múltiple, sugestiva y abierta a interpretaciones. Las categorías, lejos de aclarar, pueden volverse límites poco útiles. Este es, para mí, el argumento más fuerte para buscar otro término que describa lo que hoy llamamos inteligencias artificiales. Deberíamos evitar que un concepto tan complejo y trascendente se use únicamente para promocionar productos que imitan —alimentados por texto, arte, fotografías y trabajo intelectual humano no reconocido—, pero no igualan el quehacer humano.
Por Natalia Hernández Santelmo
La violencia es un hábito que podemos cambiar
Por Irving González Meraz
La violencia nunca se fue, sólo se transformó
Por Isaac Márquez Vicente
Hablar de paz es hoy una necesidad política
Por Abigail Huitzil Ortega
El miedo no debería ser parte del plan de estudios