
De Pat de Brún, responsable de Rendición de Cuentas de las Grandes Empresas Tecnológicas de Amnistía Internacional, y Maung Sawyeddollah, fundador y director ejecutivo de la Red de Estudiantes Rohinyás.
Los recientes anuncios de Meta sobre sus políticas de contenido entrañan un grave riesgo para las comunidades vulnerables de todo el mundo y aumentan exponencialmente el riesgo de que esta empresa vuelva a contribuir a la violencia masiva y a la comisión de abusos graves contra los derechos humanos, como ya hizo en Myanmar en 2017. La importante contribución de la empresa a las atrocidades sufridas por el pueblo rohinyá es el objeto de una nueva demanda presentada recientemente por denunciantes de irregularidades ante la Comisión de Valores y Bolsa de Estados Unidos.
El 7 de enero, Mark Zuckerberg, fundador y director ejecutivo de Meta, anunció un gran número de cambios en las normas de contenido de la empresa, aparentemente para ganarse el favor del nuevo gobierno de Trump. Entre esos cambios está el levantamiento de las prohibiciones sobre determinados discursos, como la denigración y el hostigamiento de las minorías racializadas. Además, Zuckerberg anunció un cambio drástico en las prácticas de moderación de contenidos, con una reducción significativa de la moderación automática de contenidos. Aunque estos cambios sólo se están implementando en Estados Unidos, Meta ha señalado que podrían extenderse a escala internacional. Esto marca un claro distanciamiento de los compromisos declarados anteriormente por la empresa en materia de gobernanza responsable de los contenidos.
Estoy convencido de que esto es la antesala de un genocidio […] Ya lo hemos visto antes. Va a poner en verdadero peligro la vida de personas reales.
A former Meta employee recently speaking to the platformer
Como han documentado de sobra Amnistía Internacional y otros, los algoritmos de Meta priorizan y amplifican algunos de los contenidos más nocivos, como la apología del odio, la desinformación y la incitación a la violencia racial, todo ello en aras de potenciar al máximo “la interacción de los usuarios” y, por extensión, los beneficios. La investigación ha demostrado que estos algoritmos promueven continuamente el contenido que genera reacciones emocionales más fuertes, frecuentemente en detrimento de los derechos humanos y la seguridad. Con la eliminación de garantías existentes sobre el contenido, parece que la situación sólo puede ir a peor.
Como un exempleado de Meta dijo a Platformer recientemente: “Estoy convencido de que esto es la antesala de un genocidio […] Ya lo hemos visto antes. Va a poner en verdadero peligro la vida de personas reales.” Esta declaración se hace eco de las advertencias de diversos especialistas en derechos humanos sobre el papel de Meta en el fomento de la violencia masiva en sociedades frágiles y afectadas por el conflicto.
Ya hemos visto antes las terribles consecuencias de la irresponsabilidad de Meta. En 2017, las fuerzas de seguridad de Myanmar emprendieron una brutal campaña de limpieza étnica contra la comunidad musulmana rohinyá. Una comisión de investigación independiente de la ONU concluyó en 2018 que Myanmar había cometido genocidio. En los años anteriores a estos ataques, Facebook se había convertido en una cámara de resonancia del odio virulento al pueblo rohinyá. La difusión masiva de contenido deshumanizante antirrohinyá avivó el fuego de una discriminación histórica y contribuyó a crear un entorno propicio para la violencia generalizada. En ausencia de unas salvaguardias adecuadas, los tóxicos algoritmos de Facebook intensificaron una tormenta de odio contra las personas rohinyás que favoreció estas atrocidades. Según un informe de las Naciones Unidas, Facebook tuvo una influencia decisiva en la radicalización de la población local y la incitación a la violencia contra la población rohinyá.
En lugar de aprender de sus irresponsables contribuciones a la violencia masiva en países como Myanmar y Etiopía, Meta se despoja de importantes protecciones destinadas a evitar que se repitan estos daños.
Al adoptar estos cambios, en la práctica Meta ha abierto la veda del odio y el hostigamiento dirigidos contra quienes son más vulnerables y están en situación de riesgo, como las personas trans, migrantes y refugiadas.
Meta afirma que estos cambios obedecen a su intención de promover la libertad de expresión. Si bien es cierto que Meta ha restringido indebidamentecontenido legítimo en muchos casos, la solución no es esta drástica renuncia a las salvaguardias existentes. La empresa debe adoptar un enfoque equilibrado que permita la libertad de expresión y al mismo tiempo proteja a las poblaciones vulnerables.
Todas las empresas, incluida Meta, tienen la obligación inequívoca de respetar todos los derechos humanos conforme a las normas internacionales de derechos humanos. No puede ser que un director ejecutivo multimillonario decida sin más respetar unos derechos al tiempo que desprecia otros olímpicamente y con ello ponga en peligro de forma irresponsable los derechos de millones de personas.
En lugar de aprender de sus irresponsables contribuciones a la violencia masiva en países como Myanmar y Etiopía, Meta se despoja de importantes protecciones destinadas a evitar que se repitan estos daños.
Pat de Brún es responsable del área de Rendición de Cuentas de las Grandes Empresas Tecnológicas en Amnistía Internacional.
Tras una investigación realizada en 2021, Amnistía Internacional concluyó que Meta había “contribuido de manera sustancial” a las atrocidades perpetradas contra el pueblo rohinyá, y que la empresa tenía la obligación de proporcionar un recurso efectivo a la comunidad. Sin embargo, Meta ha dejado claro que no piensa hacerlo.
Comunidades rohinyás —que en su mayoría se vieron obligadas a huir de sus hogares hace ocho años y aún viven en extensos campos en el vecino Bangladesh— también han pedido a Meta una reparación de un millón de dólares estadounidenses para financiar un proyecto de educación en los campos para personas refugiadas. Esta cantidad representa sólo el 0,0007% de los beneficios de Meta en 2023, 134.000 millones de dólares. Pese a ello, Meta rechazó la solicitud. Esta negativa demuestra más si cabe la falta de responsabilidad de la empresa y su compromiso con los beneficios por encima de la dignidad humana.
Por todo ello, a 23 de enero de 2025, hemos presentado —Maung Sawyeddollah (rohinyá sobreviviente de las atrocidades) con el apoyo de Amnistía Internacional, la Iniciativa Pro-Justicia de la Sociedad Abierta y Victim Advocates International— una demanda de denunciantes de irregularidades ante la Comisión de Valores y Bolsa de Estados Unidos. En esta demanda se subraya que Meta hizo caso omiso de las múltiples advertencias de la sociedad civil de 2013 a 2017 sobre el papel de Facebook en el fomento de la violencia contra el pueblo rohinyá. Pedimos a la Comisión que investigue a Meta por presuntas infracciones de las leyes que regulan el mercado de valores derivadas de las informaciones erróneas de la empresa a sus accionistas en relación con su contribución a las atrocidades sufridas por la población rohinyá en 2017.
Entre 2015 y 2017, ejecutivos de Meta informaron a sus accionistas de que los algoritmos de Facebook no generaban polarización, a pesar de las advertencias de que su plataforma promovía activamente la proliferación de contenido contra la población rohinyá en Myanmar. Al mismo tiempo, Meta no reveló plenamente al accionariado los riesgos que entrañaban las operaciones de la empresa en Myanmar. Al contrario, en 2015 y 2016 Meta se opuso a las propuestas de accionistas de llevar a cabo una evaluación del impacto en los derechos humanos y establecer un comité interno para supervisar las políticas y prácticas de la empresa en materia de políticas públicas internacionales, incluidos los derechos humanos.
Con Zuckerberg y otros directores ejecutivos formando fila —literalmente en la reciente investidura— detrás del gobierno de Trump en sus ataques generalizados a los derechos humanos, el accionariado de Meta tiene que reaccionar y exigir a la dirección de la empresa que rinda cuentas para evitar que Meta vuelva a convertirse en vehículo de la violencia masiva, e incluso del genocidio.
De igual modo, legisladores y legisladoras de Estados Unidos deben asegurarse de que la Comisión de Valores y Bolsa conserva su neutralidad, investiga debidamente las demandas legítimas (como la que acaba de presentarse) y garantiza que quienes cometen abusos contra los derechos humanos responden ante la justicia.
En el plano internacional, gobiernos y organismos regionales como la Unión Europea deben redoblar sus esfuerzos para obligar a Meta y otras grandes empresas tecnológicas rindan cuentas por su impacto en los derechos humanos. Como ya hemos visto, habría incontables vidas humanas en situación de riesgo si se permite que empresas como Meta actúen a su conveniencia.
Pat de Brún es responsable del área de Rendición de Cuentas de las Grandes Empresas Tecnológicas en Amnistía Internacional y director adjunto de Amnesty Tech.
Maung Sawyeddollah es fundador y director ejecutivo de la Red de Estudiantes Rohinyá. Sobrevivió a las atrocidades de las fuerzas armadas de Myanmar en 2017 y huyó a Bangladesh. Actualmente estudia en la Universidad de Nueva York mientras continúa haciendo campaña en favor de justicia para el pueblo rohinyá.