Doctor en Ciencias políticas y Sociales (UNAM) e investigador postdoctoral en el Programa Universitario de Estudios sobre Democracia, Justicia y Sociedad (PUEDJS-UNAM), lugar donde coordina el área jurídica del laboratorio digital Tlatelolco Lab. Profesor en la FCPyS-UNAM. Sus líneas de investigación son: derechos digitales y regulación de internet y medios.
Profesor investigador en la División de Estudios Jurídicos del CIDE y miembro candidato del Sistema Nacional de Investigadores (SNI). Abogado y científico social, doctor en Antropología con especialización en Antropología Jurídica y Derechos Digitales. Durante su posdoctorado en la UNAM, coordinó la Capa Jurídica del Programa Universitario de Estudios sobre Democracia, Justicia y Sociedad (PUEDJS). Su investigación aborda las dimensiones político-jurídicas de la gobernanza de Internet, las tensiones regulatorias en plataformas digitales y los alcances de la responsabilidad civil en entornos digitales.
En enero de 2025, Mark Zuckerberg sorprendió al mundo al anunciar un cambio radical en la forma en que Meta (la compañía detrás de Facebook), Instagram y WhatsApp, se ocuparían de la moderación de contenidos. La empresa, que antes colaboraba con verificadores externos de hechos (avalados por organizaciones como la International Fact-Checking Network) y hacía uso de sistemas automatizados para identificar y restringir contenidos violentos o discriminatorios, decidió poner fin a esas alianzas y dejar en manos de los propios usuarios la mayor parte de la supervisión, lo cual representa un modelo que promueve una nueva perspectiva para “construir las redes”.
En este nuevo modelo, casos considerados de “alta gravedad” como el terrorismo, la explotación sexual infantil o el tráfico de drogas, serían investigados y bloqueados directamente por Meta, mientras que el resto se procesaría a través de denuncias y notas de la propia comunidad de usuarios. Esta medida fue justificada en nombre de la “libertad de expresión”, pero levantó serias dudas sobre el debilitamiento de mecanismos de control que, hasta entonces, mitigaban la proliferación de desinformación y discursos de odio.
La adopción de este modelo de “moderación comunitaria”, parcialmente inspirado en el sistema implementado por Elon Musk en la plataforma X (antes Twitter), no solo implica un ahorro de costos operativos para la compañía, sino que, también, diluye la responsabilidad de Meta ante el riesgo de la publicación de contenidos engañosos o abiertamente violentos y discriminatorios. Al respecto, resulta importante señalar cómo diversos estudios publicados entre 2024 y 2025 han advirtiendo que, en espacios de alta polarización, la moderación basada en reportes de usuarios es demasiado lenta e ineficaz, sobre todo en las primeras etapas de viralización. Y cuando los usuarios finalmente reaccionan y señalan publicaciones dañinas, el contenido suele haber alcanzado un nivel de difusión que hace difícil revertir su impacto. Al suprimir la participación de los fact-checkers externos, además, Meta eliminó un mecanismo independiente de verificación que ayudaba a frenar la expansión de noticias falsas antes de que éstas se convirtieran en narrativas dominantes.
A la par de esto, Meta actualizó su política sobre “Hateful Conduct”, es decir, aquellos contenidos que promueven el odio hacia determinados sectores sociales. Podemos considerar que estos cambios significativos en las normas comunitarias de la plataforma tienen por objetivo diluir toda moderación a través de la supresión de términos clave relacionados con los como “discurso de odio”, y la autorización de conductas inapropiadas que antes eran censuradas, como las basadas en las características protegidas de las personas (raza, género, orientación sexual, etc.). Esto abre la puerta a un aumento de discursos discriminatorios, degradantes y excluyentes, especialmente en temas de género y migración, ya que las nuevas normas le dan mayor permisividad a aquellos contenidos políticos y religiosos que buscan denigrar a determinado grupo de personas. Y aunque Zuckerberg argumenta que estos cambios buscan fortalecer la libertad de expresión, la realidad evidencia que la relajación de estas normas comunitarias solo profundizará la discriminación, la segregación con consecuencias graves en el entorno físico de las personas y un impacto grave para la práctica y el respeto de los derechos humanos.
El contexto político de este giro regulatorio es ineludible. El segundo mandato presidencial de Donald Trump, que inició en enero de 2025, se ha caracterizado por una cercanía evidente con las grandes corporaciones tecnológicas, reflejada en la designación de Elon Musk al frente del llamado Departamento de Eficiencia Gubernamental (DOGE). Esta simbiosis de poder político y empresarial ha rebasado la lógica tradicional de las “big techs” como estados paralelos. Ahora, con Musk asumiendo un rol de funcionario público, la llamada “captura regulatoria” se ha profundizado.
Bajo esa influencia, el discurso de la “libertad de expresión irrestricta” se erige en un principio rector que facilita la relajación de las normas de moderación, al tiempo que las empresas se acogen a normativas como la Sección 230 del Communications Decency Act de Estados Unidos, que limita severamente su responsabilidad por los contenidos publicados por terceros en sus plataformas. Cabe señalar que, si bien esta legislación ha sido esencial en el desarrollo de Internet, su interpretación extensa choca con marcos regulatorios de otras regiones donde existe un mayor compromiso con la prevención y sanción de discursos de odio y desinformación que vulneran derechos fundamentales.
Por su parte, la Unión Europea ha tomado un rumbo distinto, promoviendo leyes como la Digital Services Act (DSA) y la Digital Markets Act (DMA), que aumentan las obligaciones de transparencia y responsabilidad de los grandes “gatekeepers”, y exigen respuestas más ágiles frente a contenidos ilegales. Aun así, la influencia global de compañías como Meta les permite evadir o aplazar el cumplimiento estricto de estas normativas, especialmente en contextos legales menos consolidados. Frente a ello, en América Latina, el Marco Civil de Internet en Brasil o la discusión de proyectos de ley como el PL 2630/2020 (“PL de las fake news”) muestran intentos de equilibrar la libertad de expresión con la protección de derechos y la no discriminación. Así, la nueva política de Meta se ha enfrentado a un amplio rechazo en países donde la Constitución y la legislación local prohíben expresamente la difusión de discursos que promuevan el odio, la segregación o el acoso por motivos de raza, género u orientación sexual.
El caso de Brasil es ilustrativo. La Constitución Federal de 1988, complementada por el Marco Civil de la Internet, la Ley Antirracismo y otras disposiciones que penalizan la incitación a la violencia y la discriminación, ofrece un marco que colisiona de frente con el relajamiento de las normas comunitarias de Meta. La empresa reemplazó la noción de “discurso de odio” por una más ambigua: “conducta que incita al odio”, e inclusive, amplió la tolerancia a expresiones de desprecio o llamados a la exclusión de grupos vulnerables. Poco después del anuncio, la Procuraduría Nacional de Defensa de la Democracia en el país sudamericano, solicitó explicaciones formales a la compañía, entonces el debate se trasladó hacia las audiencias públicas, que analizaron hasta qué punto la supuesta defensa de la “libertad de expresión” podía servir de pretexto para facilitar la circulación de contenido discriminatorio o difamatorio.
Por otro lado, hay que considerar que Meta tenía la más completa red de protección al usuario, por ejemplo la creación del Oversight Board en 2020, que había generado expectativas de mayor transparencia y legitimidad en las decisiones de moderación de Meta; sin embargo, su capacidad de contrapeso se ha visto muy limitada. Cabe señalar que las resoluciones del Oversight Board eran vinculantes sólo para ciertos casos concretos, y sus recomendaciones para que la plataforma realizara cambios profundos en las políticas de contenido eran orientativas, no obligatorias.
La decisión unilateral de Meta de rescindir convenios con verificadores externos y redefinir el concepto de discurso de odio sin involucrar al Oversight Board, demostró que, en la práctica, la compañía mantiene el control total sobre la arquitectura de la gobernanza digital en sus plataformas. Esto se agrava con la ausencia de un verdadero escrutinio internacional que obligue a las big techs a rendir cuentas por cuestiones de amplio impacto social.
La libertad de expresión es un pilar de toda sociedad democrática, pero las instancias internacionales en derechos humanos, como la Corte Interamericana y el Tribunal Europeo de Derechos Humanos, han reiterado que no se trata de un derecho absoluto, sino que se encuentra limitado por el respeto a otros derechos y principios, entre ellos la no discriminación y la protección de la dignidad humana. Al instaurar un modelo que promueve la autorregulación prácticamente sin filtros, Meta parece olvidar que la función de moderar el discurso público en línea lleva aparejada una responsabilidad social y jurídica, especialmente cuando el contenido puede derivar en violencia o profundizar desigualdades estructurales. La ausencia de controles efectivos y el debilitamiento de los fact-checkers externos generan un vacío que, según múltiples reportes, incrementa la vulnerabilidad de grupos históricamente marginados y facilita el crecimiento de campañas de odio y desinformación.
Podemos considerar que, a nivel global, lo que está en juego es la propia definición de soberanía digital y el equilibrio de poderes en la era de la información. Si las grandes corporaciones tecnológicas, bajo la sombra de normativas como la Sección 230, pueden imponer sus criterios a escala planetaria y adaptar las reglas según convenga a sus intereses —en ocasiones alineados con gobiernos que promueven la desregulación—, la capacidad de los Estados para proteger a sus ciudadanos se verá seriamente menoscabada. Los ejemplos de la Unión Europea y el debate legislativo en América Latina muestran que sí existen caminos alternativos, pero exigen una cooperación internacional eficaz y la voluntad de contrarrestar los intereses económicos y políticos de quienes ven en esta “libertad de expresión” un escudo para la expansión de la desinformación y el discurso extremista.
La llamada “democratización” del espacio digital que Meta defiende, se traduce en la práctica en un modelo de laissez-faire que erosiona los mecanismos de verificación y supervisión, normaliza expresiones de odio y discrimina a las poblaciones menos protegidas. Los profundos lazos entre el poder político y estas corporaciones revelan una integración formal que supera la noción de que operan como simples “estados paralelos”. Mientras no se establezca un marco legal coherente —de carácter transnacional y respetuoso de las normas democráticas— que subordine el interés corporativo al bien común, la “libertad” proclamada corre el riesgo de convertirse en un privilegio que socava derechos fundamentales. El desafío, por tanto, no se reduce a la mera autorregulación: es una cuestión de gobernanza global y de construcción de un orden digital más justo y equitativo, donde la innovación y la protección de los derechos humanos sean compatibles en lugar de antagónicas.
Programa Universitario de Estudios sobre Democracia, Justicia y Sociedad, todos los derechos reservados 2023. Esta página puede ser reproducida con fines no lucrativos, siempre y cuando no se mutile, se cite la fuente completa, y su dirección electrónica. De otra forma, requiere permiso previo por escrito de la institución.
REVISTA TLATELOLCO: DEMOCRACIA DEMOCRATIZANTE Y CAMBIO SOCIAL, Vol. 1, Núm. 2, enero – junio 2023, es una publicación semestral, editada por la Universidad Nacional Autónoma de México, Ciudad Universitaria, Alcaldía Coyoacán, Ciudad de México, C.P. 04510, a través del Programa Universitario de Estudios sobre Democracia, Justicia y Sociedad, Av. Ricardo Flores Magón No. 1, Piso 13, colonia Nonoalco Tlatelolco, Alcaldía Cuauhtémoc, C.P. 06900, Ciudad de México, Tel. 5551172818 ext. 49787, URL: https://puedjs.unam.mx/revista_tlatelolco/, correo electrónico: revistatlatelolco@puedjs.unam.mx. Editor responsable: John Mill Ackerman Rose. Reserva de Derechos al Uso Exclusivo de Título: 04-2022-111112043400-102, ISSN: en trámite, ambos otorgados por el Instituto Nacional del Derecho de Autor. Responsable de la última actualización de este número: John M. Ackerman Rose, Av. Ricardo Flores Magón No. 1, Piso 13, colonia Nonoalco Tlatelolco, Alcaldía Cuauhtémoc, C.P. 06900, Ciudad de México, Tel. 5551172818, ext. 49787. Fecha de última modificación: 28 de febrero de 2023.
El contenido de los textos es responsabilidad de los autores y no refleja forzosamente el punto de vista de los dictaminadores, o de los miembros del Comité Editorial, ni la postura del editor de la publicación.
Se autoriza la reproducción total o parcial de los textos aquí publicados siempre y cuando se cite la fuente completa y la dirección electrónica de la publicación.