ISSN : 2992-7099

Jóvenes que parecen Humanos

Martha Erika Pérez Domínguez

Martha Erika Pérez Domínguez

Becaria posdoctoral adscrita al Programa Universitario de Estudios sobre Democracia, Justicia y Sociedad (PUEDJS) de la UNAM. Doctora en ciencia social con especialidad en sociología por El Colegio de México. Maestra en filosofía de la cultura por la Universidad Michoacana de San Nicolás de Hidalgo y antropóloga social por la Escuela Nacional de Antropología e Historia. Sus líneas de investigación son: género, sexualidad, juventud, salud y culturas digitales.

*Este trabajo fue realizado en el marco del Proyecto posdoctoral “La construcción del discurso conservador mexicano en las plataformas digitales”. Agradezco al Programa de Becas Posdoctorales de la UNAM; a mi asesor el Dr. John M. Ackerman Rose; y al Programa Universitario de Estudios sobre Democracia, Justicia y Sociedad (PUEDJS) de la Coordinación de Humanidades de la UNAM.

13 mayo, 2021

¿LOS BOTS HACEN GANAR O PERDER ELECCIONES?,
¿AMENAZAN LA DEMOCRACIA DESDE PLATAFORMAS DIGITALES?

En los últimos años los bots se han señalado como agentes con capacidad de influir y orientar la opinión pública e incluso el comportamiento electoral. Sin embargo, esto es difícil de demostrar empíricamente, pues como afirman Wardle (2017) y Krail (2019) no hay evidencia suficiente para afirmar tal cosa además de que esta idea se sostiene en “graves errores científicos”. Los procesos electorales no responden a una lógica causal, son complejos e involucran factores históricos, sociales y culturales. Además, muchos de los análisis que intentan mostrar la influencia de los bots se enfocan en Twitter, dejando fuera el complejo ecosistema digital y sobre todo sin considerar que gran parte de la población, al menos en México, no usa dicha plataforma. Lo cierto es que además de bot, que en sí mismo es un término problemático pues suele utilizarse indistintamente para cuentas automatizadas y no automatizadas, cada día surgen otros como trollssockpuppets, cuentas impostoras, ciborgs, automatización social, entre otros. Lo cual habla de un intento por entender y definir un fenómeno que está teniendo lugar en las plataformas sociodigitales. Para abonar a su comprensión, en el Tlatelolco Lab entrevistamos a 11 personas que trabajaron como bots, trolls, creadoras de contenido falso y otro tipo de estrategias de desinformación tras las pantallas durante las campañas electorales de 2012 y 2018 en México.

A través de las entrevistas podemos acceder a un tipo de información que no se ve en los gráficos o análisis de datos de Twitter, en ellas encontramos las experiencias narradas de los actores involucrados directamente en los procesos de desinformación detrás de las pantallas. A continuación, se presenta un primer acercamiento a las prácticas que dan forma a este proceso de desinformación desde la voz de los propios actores.

Yo llegué a ese equipo de trabajo reclutado como un empleo normal que era donde ponían, ya sabes, ¿no?: ‘Se solicitan sociólogos, comunicólogos y de Ciencias Políticas’, y ya, así nomás, para hacer supuestamente las actividades de analista para una supuesta agencia digital (LE, PRI, 2012)

Una primera característica de las personas entrevistadas es que prácticamente todas tenían menos de treinta años al momento de trabajar como bots, la mayoría recién terminando su licenciatura. Fueron contratadas por agencias de publicidad o comunicación que trabajaban para algún candidato, candidata o partido político.

“ Una primera característica de las personas entrevistadas es que prácticamente todas tenían menos de treinta años al momento de trabajar como bots, la mayoría recién terminando su licenciatura. ”

El contacto se dio a través de una persona conocida, y en menor medida respondiendo a un anuncio público de empleo. Todas fueron parte de una estrategia organizada de desinformación que se sostenía en la articulación de recursos materiales, económicos y humanos; oficinas perfectamente montadas, con computadoras, celulares, chips, cuentas compradas, etc. En suma, fueron parte de una estructura laboral bien organizada.

Le llamaban búnker, estaba en Polanco, era un edificio de oficinas medio viejo, de hecho, era Masarik 17, y cuando nosotros entrábamos a esa oficina, había un guardia que nos retiraba nuestros teléfonos celulares, no los podíamos tener mientras estábamos adentro, yo creo que para que no tomáramos fotos adentro. (G., PAN, 2012)

No obstante, esa articulación de recursos materiales y humanos no necesariamente supuso una organización eficaz en la forma de trabajo, en específico para las elecciones de 2012. De acuerdo con los testimonios, muchas de sus prácticas seguían un proceso de prueba y error, pues eran guiadas por intuiciones de los coordinadores o de los mismos jóvenes. Es decir, iban aprendiendo con la práctica. Para 2018 se habían sofisticado las estrategias. Tanto las personas usuarias de redes como quienes operaron estrategias de desinformación aprendieron que no todo lo que sucede en redes es auténtico, por lo que el trabajo se enfocó en buscar formas de hacer pasar las cuentas como humanos reales, con vida, gustos, relaciones, etcétera.

Teníamos un horario para entregar las tandas de comentarios. Teníamos que comentar en la cuenta del gobernador, de su esposa y de otro gobernador que no me acuerdo de dónde era, que eran los tres principales que nos estaban pagando. Tres comentarios positivos a cada uno de ellos antes de las once, y otra tanda a las cinco de la tarde. Teníamos que enviar captura de los comentarios que habíamos hecho, se guardaban en una base… Entonces, por ejemplo, con mi cuenta que se llama Brenda ponía un meme, un estado, y luego ya hacía el comentario a Alejandro Murat: “eres el mejor gobernador” y ya. Ahora la cuenta de Ivonne, uno, y listo ya, para que no se vea obvio y subía un meme. … Entonces organizamos como que turnos, así de yo a las seis, yo a las ocho, yo a las nueve, para que se viera también como más natural, como que no todos a las seis. (M, PRI, 2018)

A esa hipocresía que llamamos democracia, ¿no? Y no creo que esté en ruinas apenas, hay varios indicios de que esa fachada moral de la actual democracia está cayendo hace tiempo. Donald Trump, por ejemplo, es una evidencia de esto: hablamos de la incomodidad de los Estados Unidos frente a un personaje como él. Es una incomodidad porque se ha mostrado el trasfondo, la falsedad de una democracia.

Por otra parte, debido al carácter encubierto de este trabajo, las condiciones laborales eran precarias en la mayoría de los casos. No firmaron contrato laboral, pero sí de confidencialidad; los pagos se hacían en efectivo y si bien era un salario más alto con respecto a otros trabajos a los que podían acceder, fue un trabajo de corto plazo, sin seguridad de ningún tipo. Las personas entrevistadas fueron el último eslabón de una cadena amplia de producción de desinformación. Después de los directivos de las agencias, había quienes coordinaban y supervisaban el trabajo, mandos intermedios y finalmente las y los jóvenes que se dividían según las tareas que les eran asignadas: investigación, diseño, community managersbots de ataque, bots de contención, bots de apoyo. Tenían, además, turnos definidos, generalmente matutino, vespertino y fines de semana. A continuación, se describen algunas de las tareas que realizaron las y los jóvenes y que fueron mencionadas en las entrevistas:

1. Crear cuentas en distintas plataformas. Esta es una de las primeras tareas que se les asignaban, abrir cuentas desde cero o bien, en algunos casos se reportó que se les entregaron cuentas ya hechas, de otros países, y la tarea era personalizarlas. Durante el tiempo que duró el trabajo, constantemente tenían que abrir cuentas, pues era muy común que fueran reportadas y dadas de baja. Destaca que mientras que en las elecciones de 2012 sólo se ponían en operación cuentas en Facebook y Twitter, en las elecciones de 2018 se incorporó también Instagram.

Después de que nos cacharon que éramos bots, ellos pagaron, a quién sabe quién y les vendieron una cantidad exagerada de cuentas ya creadas. Pero nosotros entrábamos al servidor de Gmail de Rusia, era en ruso, entrábamos, nos daban el correo, la contraseña, y desde ahí creábamos Twitter, ya estaba creado, ya estaba vinculado, lo que hacíamos era cambiar foto, nombre, país, porque de repente teníamos cuentas que de Tailandia [sic], que de Brasil, o sea, era una cantidad ¿qué te digo?, como mil cuentas habrán comprado, ya hechas, ya nada más para nosotros. Nuestra tarea era, eso fue mucho más ágil, porque ya nuestra tarea era hacer todo esto, dejarle dos que tres publicaciones, dejarla corriendo y ya. Y la que sigue, la que sigue. (A, PRI, 2018)

2. “Alimentar” las cuentas, darles vida. Darles vida a las cuentas significa hacerlas parecer humanas, no sólo debían subir una foto de perfil y comentar a los candidatos, sino “tener una vida real”. Compartir música, subir memes, fotos, comentar con amigos, ver videos, etc. Este trabajo era fundamental porque esto les garantizaba que no fueran identificadas tan fácilmente como bots y no fueran denunciadas o canceladas por la plataforma.

Cada quien manejaba 25 [cuentas] y tu primera chamba era personalizar… Entonces te las daban abiertas, te daban los accesos y tú tenías que poner fotos, obviamente usuario, y la biografía, y desde ahí ya le empezabas a crear una personalidad. Porque, además, eso las distinguía. Y básicamente la chamba era controlar esas personalidades y que se notara que son distintas. (G., PAN, 2012) Lo primero es mostrar que tienes vida, o sea, por ejemplo, yo lo que hacía era darles personalidades, era como de, estos cinco son, les gusta el cine. Entonces van a seguir páginas de cine. Y no sé, encontraba una película, estaba Harry Potter en Facebook, y entonces, en lo que yo creaba otro, este estaba viendo la película. Y de repente era un ruidero, porque nuestros perfiles estaban viendo Los Simpson, otro estaba viendo Malcolm, los dejábamos como si yo estuviera viendo algo. (A, PRI, 2018)

3. Crear páginas de temas diversos. Esta es una de las tareas que varias personas mencionaron y que consistía en crear páginas en Facebook que no tuvieran que ver con política ni con noticias, sino con temas de interés diverso: cocina, viajes, arte, etc. La tarea era mantenerlas activas, “alimentarlas”, hacerlas crecer. Esto tenía un objetivo a largo plazo, eventualmente estas páginas se utilizarían para introducir algún tema político a personas que no estaban necesariamente interesadas en política.

Tenían otra, o tienen otra que se llama “Grandes Mexicanos” igual en Facebook, esa sí la llegué a manejar yo. Esa página de hecho me la encargó mi jefe y me dijo: esta página tienes que darle mantenimiento porque muy posiblemente nos sirva para algo fuerte. Y ahí nunca se trataban temas políticos en esa página como tal… Pero sí me dijeron: esta página tiene que estar muy bien, debe estar activa, porque la vamos a utilizar, nunca me dijeron para qué. (A., PRI, 2018)

7. Atacar. Todas las personas entrevistadas coincidieron en que la función prioritaria era atacar. Si bien había tareas constantes como “alimentar” a las páginas y las vidas de los bots, todo esto quedaba en segundo término cuando había un momento específico que requería el ataque.

Para lo que a nosotros nos querían era para formar un equipo de ataque, o sea, sí comentábamos y apoyábamos y demás, pero lo principal era el ataque. De hecho, teníamos cuentas así separadas, cuentas para Oaxaca y cuentas de ataque. A veces teníamos que mezclarlas porque nos las empezaban a cerrar, pero básicamente teníamos un Drive que se llamaba “cuentas de ataque”. (A., PRI, 2018)

9. Comentar las transmisiones en vivo en Facebook. Las transmisiones en vivo vía Facebook eran espacios para comentar también, sobre todo debates o entrevistas. En ellas, las y los jóvenes comentaban apoyando al candidato o atacando a los adversarios. Todos los comentarios debían guardarse con capturas de pantalla para probar el trabajo ante sus superiores.

Y luego los debates era muy estresante porque era comentar, capturar la pantalla, pero luego había muchos comentarios y se te iban, y era de buscarlo entre todos. Era un rollo. (M., PRI, 2018).

10. Crear y difundir contenido falso. Generalmente sus superiores les proporcionaban imágenes, encabezados o información que debían armar y difundir. Los grupos de Facebook fueron los espacios más mencionados de difusión de este tipo de contenido. Wardle (2017) hace una distinción de los diferentes tipos de contenido falso (engañoso, impostor, falso, conexión falsa, contexto falso), en los casos mencionados en las entrevistas es posible notar una mezcla de estos tipos de contenido. Es decir, no hay formas puras de contenido que permitan hacer las delimitaciones que propone la autora.

Nos decían: “chavos, vamos a poner que están quemando urnas en tal calle de Oaxaca”, y él mismo nos pasaba la foto, que venía de diseño, y nos daba la foto y armaba la noticia. Nos decía: “hay que difundir que están quemando urnas”, y yo con alguna de las cuentas ponía “oigan ¿cómo creen que están quemando urnas?”, compartía en un grupo, nos metíamos a grupos de Oaxaca, cosas de comida, de lo que fuera que tuviera que ver en Oaxaca. Entonces era difundir, difundir, difundir. (M, PRI, 2018).

11. Desmentir noticias verdaderas. Esta es otra forma de engañar y difundir información falsa. En este caso el objetivo era comentar en las publicaciones que difundían un contenido verdadero que afectaba a el o la candidata y colocar una versión contraria.

Hubo una vez que hubo una balacera, en no sé qué plaza y nos dijeron: “oigan, hubo una balacera y están atacando al gobernador por Twitter, lo que van a hacer con sus perfiles es desmentir la balacera. Van a decir: yo estuve ahí y ahí no pasó nada. Necesito que me entreguen cinco tuits con diferentes perfiles, listo”. Entonces si éramos cinco por cinco 25 y con esos 25 tuits, porque, nosotros sólo éramos una célula, pero aparte había otra y otra y otra célula”. (M., PRI, 2012)

12. Hacer memes, videos. Los memes o videos que difundían en algunos casos se los entregaban ya hechos, en otros los hacían ellos mismos o había personas encargadas específicamente para eso.

Mandaban muchos memes ya hechos y podía ser como en contra de los demás o a favor de Josefina. Y de hecho había un diseñador, eran dos, uno por cada turno, entonces si tú tenías alguna idea de cartón, de imagen, de meme, de imagen pues foto, lo que sea; se la ibas y se la platicabas y te la hacía [sic]. Era el departamento de diseño. Departamento de memes. Sí”. (G. PAN, 2012)

Otras prácticas mencionadas en las entrevistas fueron investigación, que consistía en indagar sobre alguna persona o situación sobre la que se construiría una narrativa; borrado de comentarios negativos en los perfiles de políticos, crear páginas “clones” de noticias, por ejemplo, páginas que se hacían pasar por el Reforma, copiaban todo su contenido, y eventualmente publicaban ahí alguna noticia falsa; crear cuentas parodia; o intentar colocar un tema en las tendencias de Twitter. No todas las personas hacían todas las actividades antes descritas, se dividían según sus aptitudes o habilidades. Había personas o equipos de personas que se encargaban sólo de investigar, de hacer memes o de atacar, por ejemplo. Esta división de tareas se reflejaba también en el espacio físico laboral.

Físicamente eran tres espacios, de mesas, o sea, tres conjuntos de mesas… y te ubicaban en una de estas secciones, ésta que te digo ellos le llamaban “ataque”. Son los que tenían más la consigna de enganchar a la gente… Luego estaba la de en medio, que era la mía y se llamaba “contención”, que era como mucho más tranquila y se trataba de, sí a veces de atacar, pero de una forma como si tú fueras muy consciente y muy informado, como que soy un gran ciudadano que te va a decir en qué estás mal. Y luego del otro lado estaban esos güeyes, no me acuerdo ahora cómo se llaman, pero haz de cuenta que ellos eran como los más suavecitos, los más chavitos de edad, pero además eran los más tranquilos, toda su personalidad era así panista, ellos sí creían en Josefina. Se dedicaban básicamente a hacer elogios. (G, PAN, 2012)

Ninguna de las personas entrevistadas dijo haber utilizado procesos de automatización en las tareas de desinformación. Algunas de ellas utilizaron herramientas como TweetDeck o If This Then That, pero lo hicieron por iniciativa propia, no por mandato de sus superiores. Lo hacían para lograr mantener activas sus cuentas y cumplir con las tareas encomendadas de manera más fácil. En algún momento incluso se les pidió que no las utilizaran porque eso podía hacerlos pasar por cuentas falsas. Esto contrasta con la idea generalizada de que los bots y cuentas que buscan dañar políticamente son automatizadas, en nuestra investigación encontramos más bien un intento por evitar los comportamientos artificiales y buscar una apariencia humana que les garantice pasar desapercibidos.

Finalmente, las personas entrevistadas señalaron la necesidad económica y no la convicción política como la principal motivación para ser parte de este trabajo. Lo que habla de un escenario laboral precario e incierto para quienes están terminando su carrera y no cuentan con otro tipo de capitales que les permitan entrar al mercado laboral en mejores condiciones. Además, la consigna que recibieron de sus superiores fue explícitamente influir sobre los resultados electorales o la aprobación de los candidatos; en todos los casos quedaba claro que era una tarea que implicaba engañar. Varias personas mencionaron haber recibido la indicación expresa de lograr que AMLO no llegara a la presidencia. Si bien las y los jóvenes hacían su trabajo y buscaban formas creativas de cumplir con lo que les encomendaban, varios expresaron que era una tarea “inútil”, “poco efectiva”.

Yo creo que ellos maquillaban mucho las cifras, yo creo que les hacían creer a los de Oaxaca que estaban teniendo un mejor éxito del que realmente estaban teniendo, porque yo no sé, también, qué rollo con los políticos si realmente se la creen y ya. Pero la verdad es que tampoco nosotros generábamos tanto impacto… no digo que no sirva, pero siento que es demasiada inversión para los resultados que se tiene… cuando decían “no, no vamos a dejar que gane AMLO”, y era así como de “dude, somos seis, o sea” más todas las aldeas digitales, realmente ¿qué pueden hacer?, por eso te digo que muchas veces sentía que no tenía mucho sentido. (A, PRI, 2018)

REFLEXIONES FINALES

En los procesos electorales de 2012 y 2018 se pusieron en marcha diferentes mecanismos de desinformación, uno de ellos fue la activación de cuentas falsas en distintas redes sociales para apoyar a candidatos. Se han denominado bots, y aunque muy mediáticos, no existe evidencia suficientemente fuerte para sostener que hayan influido de alguna manera en el comportamiento electoral. Aún más, como señala Atilano (2018) habría que preguntarse ¿por qué si todas las candidaturas usan las redes sociodigitales para ganar las elecciones sólo algunas tienen éxito? Como se puede notar en los relatos de las personas entrevistadas, las prácticas que realizaron fueron muy similares entre los diferentes partidos; todos atacaron, comentaron, difundieron noticias falsas, y, sin embargo, sólo un candidato ganó.

Creer que los bots o cuentas automatizadas han definido los procesos electorales denota una mirada simplista y poco fundamentada sobre un problema complejo. Son, más bien, parte de un engranaje mucho más intrincado que, como otras estrategias, se utilizan para intentar influir sobre los procesos electorales, pero que por sí solas, no representan una fuerza política importante.

“ Creer que los bots o cuentas automatizadas han definido los procesos electorales denota una mirada simplista y poco fundamentada sobre un problema complejo. ”

Es por esto que, una mirada cualitativa al fenómeno permite comprender mejor estas prácticas en nuestro contexto específico. Aquí mostramos cómo detrás de algunas cuentas denominadas (y auto denominadas) bots, hay humanos, generalmente jóvenes en condiciones laborales precarias, contratados por agencias privadas al servicio de personajes políticos, que hacen un trabajo artesanal, no automatizado, pero organizado con el fin de incidir en la opinión pública en redes y el comportamiento electoral.

Destaca el hecho de que este trabajo, al menos de 2012 a 2018, fue virando hacia la humanización y no la automatización. Contrario a la idea de que la automatización es la amenaza, vemos aquí que lo humano y lo impredecible sigue siendo lo que inclina la balanza de la historia.

Bibliografía

Atilano, J. (2018). Influencia sociodigital en los comportamientos electorales tres estudios de caso: Jaime Rodríguez, Enrique Alfaro y Pedro Kumamoto en el proceso electoral de 2015 en México. Tesis de doctorado en Ciencias Sociales con especialidad en Sociología. México: CES, Colmex.

Kreil, M., 2019. The Army that Never Existed: The Failure of Social Bots Research. Disponible en: https://michaelkreil.github.io/openbots/

Wardle, C. & H. Derakhshan. (2017). Information Disorder. Toward an interdisciplinary framework for research and policy making. Council of Europe Report.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

2 × two =