‘Matar más’: Facebook no detecta el odio contra los rohingya

YAKARTA, Indonesia (AP) — Un nuevo informe descubrió que Facebook no detectó discursos de odio flagrantes ni llamados a la violencia contra la minoría musulmana rohingya de Myanmar años después de que se descubrió que ese comportamiento jugó un papel determinante en el genocidio contra ellos.

El informe compartido exclusivamente con The Associated Press mostró que el grupo de derechos humanos Global Witness envió ocho anuncios pagados para su aprobación a Facebook, cada uno de los cuales incluía diferentes versiones de discursos de odio contra los rohingya. Los ocho anuncios fueron aprobados por Facebook para ser publicados.

El grupo retiró los anuncios antes de que fueran publicados o pagados, pero los resultados confirmaron que, a pesar de sus promesas de hacerlo mejor, los controles de fugas de Facebook aún no detectan el discurso de odio y los llamados a la violencia en su plataforma.

El ejército llevó a cabo lo que llamó una campaña de limpieza en el estado de Rakhine, en el oeste de Myanmar, en 2017 después de un ataque de un grupo insurgente rohingya. Más de 700.000 rohingyas huyeron a la vecina Bangladesh y las fuerzas de seguridad fueron acusadas de violaciones masivas, asesinatos e incendios de miles de viviendas.

También el lunes, el secretario de Estado de EE. UU., Antony Blinken, anunció que EE. UU. ve la violencia contra los rohingya como un genocidio. La declaración tiene como objetivo generar presión internacional y sentar las bases para posibles acciones legales, dijo Blinken.

El 1 de febrero del año pasado, las fuerzas armadas de Myanmar tomaron por la fuerza el control del país y encarcelaron a funcionarios gubernamentales elegidos democráticamente. Los refugiados rohingya condenaron la toma militar y dijeron que les da más miedo regresar a Myanmar.

Los expertos dicen que esos anuncios han seguido apareciendo y que, a pesar de sus promesas de hacerlo mejor y de asegurar que se ha tomado en serio su papel en el genocidio, Facebook aún falla incluso en las pruebas más simples: garantizar que los anuncios pagados que se publican en su sitio no contengan discurso de odio que pide el asesinato de musulmanes rohingya.

“¡La matanza actual de Kalar no es suficiente, necesitamos matar más!” lea una publicación paga propuesta de Global Witness, usando un insulto que se usa a menudo en Myanmar para referirse a personas de origen musulmán o de la India oriental.

“Están muy sucios. Las mujeres bengalíes/rohinyás tienen un nivel de vida muy bajo y mala higiene. No son atractivos”, decía otro.

“Estas publicaciones son impactantes por lo que alientan y son una clara señal de que Facebook no ha cambiado ni hecho lo que le dijeron al público que harían: regularse adecuadamente”, dijo Ronan Lee, investigador del Instituto de Medios y Creatividad. Industries en la Universidad de Loughborough, Londres.

Los ocho anuncios de Global Witness utilizaron lenguaje de incitación al odio tomado directamente de la Misión Internacional Independiente de Investigación de las Naciones Unidas sobre Myanmar en su informe al Consejo de Derechos Humanos. Varios ejemplos fueron de publicaciones anteriores de Facebook.

El hecho de que Facebook haya aprobado los ocho anuncios es especialmente preocupante porque la empresa afirma mantener los anuncios en un estándar “aún más estricto” que las publicaciones regulares no pagadas, según su página del centro de ayuda para anuncios pagados.

“Acepto el punto de que ocho no es un número muy grande. Pero creo que los hallazgos son realmente claros, que los ocho anuncios fueron aceptados para su publicación”, dijo Rosie Sharpe, activista de Global Witness. “Creo que se puede concluir de eso que es probable que la gran mayoría de los discursos de odio se aprueben”.

La empresa matriz de Facebook, Meta Platforms Inc., dijo que ha invertido en mejorar sus controles de seguridad en Myanmar, incluida la prohibición de cuentas militares después del Tatmadaw, como se conoce localmente a las fuerzas armadas, tomaron el poder y encarcelaron a los líderes electos en el golpe de 2021.

“Construimos un equipo dedicado de hablantes de birmano, prohibimos el Tatmadaw, interrumpimos las redes que manipulan el debate público y tomamos medidas contra la información errónea dañina para ayudar a mantener a las personas seguras. También hemos invertido en tecnología en idioma birmano para reducir la prevalencia de contenido infractor”, escribió Rafael Frankel, director de políticas públicas para mercados emergentes de Meta Asia Pacific en un comunicado enviado por correo electrónico a AP el 17 de marzo. “Este trabajo es guiado por los comentarios de expertos, organizaciones de la sociedad civil e informes independientes, incluida la Misión de Investigación de las Naciones Unidas sobre los hallazgos de Myanmar y la Evaluación de Impacto en los Derechos Humanos independiente que encargamos y publicamos en 2018”.

Facebook se ha utilizado para difundir discursos de odio y amplificar la propaganda militar en Myanmar en el pasado.

Poco después de que Myanmar se conectara a Internet en el año 2000, Facebook se asoció con sus proveedores de telecomunicaciones para permitir que los clientes usaran la plataforma sin tener que pagar por los datos, que todavía eran costosos en ese momento. El uso de la plataforma explotó. Para muchos en Myanmar, Facebook se convirtió en Internet.

Los defensores de la política de internet local dijeron repetidamente a Facebook que el discurso de odio se estaba extendiendo por la plataforma, a menudo dirigido a la minoría musulmana rohingya en la nación mayoritariamente budista.

Durante años, Facebook no invirtió en moderadores de contenido que hablaran idiomas locales o verificadores de datos con conocimiento de la situación política en Myanmar, ni cerró cuentas específicas ni eliminó páginas que se usaban para propagar el odio hacia los rohingya, dijo Tun Khin, presidente de Burmese Rohingya. Organization UK, una organización de defensa de los rohingyas con sede en Londres.

En marzo de 2018, menos de seis meses después de que cientos de miles de rohingya huyeran de la violencia en el oeste de Myanmar, Marzuki Darusman, presidente de la Misión Internacional Independiente de Investigación de las Naciones Unidas sobre Myanmar, dijo a los periodistas que las redes sociales habían “contribuido sustancialmente al nivel de acritud y disensión y conflicto, por así decirlo, dentro del público”.

“El discurso de odio es ciertamente, por supuesto, una parte de eso. En lo que respecta a la situación de Myanmar, las redes sociales son Facebook y Facebook son las redes sociales”, dijo Darusman.

Cuando se le preguntó sobre Myanmar un mes después en una audiencia en el Senado de EE. UU., el director ejecutivo de Meta, Mark Zuckerberg, dijo que Facebook planeaba contratar a “docenas” de hablantes de birmano para moderar el contenido y trabajaría con grupos de la sociedad civil para identificar figuras de odio y desarrollar nuevas tecnologías para combatir el discurso de odio.

“El discurso de odio es muy específico del lenguaje. Es difícil hacerlo sin personas que hablen el idioma local y necesitamos aumentar nuestro esfuerzo de manera espectacular”, dijo Zuckerberg.

Sin embargo, en archivos internos filtrados por la denunciante Frances Haugen el año pasado, AP descubrió que persistían las infracciones. La empresa intensificó sus esfuerzos para combatir el discurso de odio, pero nunca desarrolló por completo las herramientas y estrategias necesarias para hacerlo.

Los refugiados rohingya han demandado a Facebook por más de $ 150 mil millones, acusándolo de no detener el discurso de odio que incitaba a la violencia contra el grupo étnico musulmán por parte de los gobernantes militares y sus partidarios en Myanmar. Los grupos de jóvenes rohingya con base en los campos de refugiados de Bangladesh han presentado una queja por separado en Irlanda ante la Organización para la Cooperación y el Desarrollo Económicos de 38 naciones pidiendo a Facebook que proporcione algunos programas de remediación en los campos.

La compañía ahora llamada Meta se ha negado a decir cuántos de sus moderadores de contenido leen birmano y, por lo tanto, pueden detectar el discurso de odio en Myanmar.

“Los sobrevivientes del genocidio rohingya continúan viviendo en campamentos hoy y Facebook les sigue fallando”, dijo Tun Khin. “Facebook necesita hacer más”.