El discurso de odio en Myanmar continúa prosperando en Facebook

YAKARTA, Indonesia - Años después de ser objeto de escrutinio por contribuir a la violencia étnica y religiosa en Myanmar, Facebook todavía tiene problemas para detectar y moderar el discurso de odio y la desinformación en su plataforma en la nación del sudeste asiático, según muestran documentos internos vistos por The Associated Press.

Hace tres años, la compañía encargó un informe que descubrió que Facebook se usaba para 'fomentar la división e incitar a la violencia fuera de línea' en el país. Se comprometió a hacerlo mejor y desarrolló varias herramientas y políticas para hacer frente al discurso de odio. Pero al desplazarse por Facebook hoy, no es difícil encontrar publicaciones que amenacen con asesinato y violación en Myanmar.

Las violaciones han persistido, e incluso han sido explotadas por actores hostiles, desde la toma del poder militar del 1 de febrero de este año que resultó en horribles abusos contra los derechos humanos en todo el país.

Un video de 2 1/2 minutos publicado el 24 de octubre de un partidario del ejército que llama a la violencia contra los grupos de oposición ha obtenido más de 56.000 visitas.

'Así que a partir de ahora, somos el dios de la muerte para todos (ellos)', dice el hombre en birmano mientras mira a la cámara. Ven mañana y veamos si sois verdaderos hombres o gays.

Una cuenta publica la dirección de un desertor militar y una foto de su esposa. Otra publicación del 29 de octubre incluye una foto de soldados conduciendo a hombres atados y con los ojos vendados por un camino de tierra. La leyenda birmana dice: 'No los atrapes vivos'.

A pesar de los problemas en curso, Facebook vio sus operaciones en Myanmar como un modelo para exportar en todo el mundo y como un caso cáustico y en evolución. Los documentos revisados ​​por AP muestran que Myanmar se convirtió en un campo de pruebas para la nueva tecnología de moderación de contenido, con el gigante de las redes sociales probando formas de automatizar la detección de discursos de odio y desinformación con diferentes niveles de éxito.



Las discusiones internas de Facebook sobre Myanmar se revelaron en divulgaciones hechas a la Comisión de Bolsa y Valores y proporcionadas al Congreso en forma redactada por el asesor legal de Frances Haugen, ex empleado de Facebook convertido en denunciante. Las versiones redactadas recibidas por el Congreso fueron obtenidas por un consorcio de organizaciones de noticias, incluida The Associated Press.

Facebook ha tenido una historia más corta pero más volátil en Myanmar que en la mayoría de los países. Después de décadas de censura bajo el régimen militar, Myanmar se conectó a Internet en 2000. Poco después, Facebook se asoció con proveedores de telecomunicaciones en el país, lo que permitió a los clientes usar la plataforma sin necesidad de pagar por los datos, que todavía eran costosos en ese momento. . Explotó el uso de la plataforma. Para muchos en Myanmar, Facebook se convirtió en la propia Internet.

Htaike Htaike Aung, un defensor de la política de Internet de Myanmar, dijo que también se convirtió en 'un semillero para el extremismo' alrededor de 2013, coincidiendo con disturbios religiosos en Myanmar entre budistas y musulmanes. No está claro cuánta moderación de contenido, si es que hubo alguna, estaba ocurriendo en ese momento.

Htaike Htaike Aung dijo que se reunió con Facebook ese año y expuso problemas en el país, incluida la forma en que las organizaciones locales estaban viendo cantidades exponenciales de discurso de odio en la plataforma y cómo los mecanismos preventivos, como informar publicaciones, no funcionaban en el contexto de Myanmar. .

Un ejemplo que citó fue una foto de una pila de palos de bambú que se publicó con una leyenda que decía: 'Estemos preparados porque va a haber un motín que va a suceder dentro de la comunidad musulmana'.

Htaike Htaike Aung dijo que la foto se informó a Facebook, pero que la compañía no la eliminó porque no violaba ninguno de los estándares comunitarios de la compañía.

'Lo cual es ridículo porque en realidad estaba llamando a la violencia. Pero Facebook no lo vio de esa manera ', dijo.

Años después, la falta de moderación llamó la atención de la comunidad internacional. En marzo de 2018, los expertos en derechos humanos de las Naciones Unidas que investigaban los ataques contra la minoría musulmana rohingya de Myanmar dijeron que Facebook había desempeñado un papel en la difusión del discurso de odio.

Cuando se le preguntó sobre Myanmar un mes después durante una audiencia en el Senado de los Estados Unidos, el director ejecutivo Mark Zuckerberg respondió que Facebook planeaba contratar a 'docenas' de hablantes birmanos para moderar el contenido, trabajaría con grupos de la sociedad civil para identificar figuras de odio y desarrollar nuevas tecnologías para combatir el discurso de odio. .

'El discurso de odio es muy específico del idioma. Es difícil hacerlo sin personas que hablen el idioma local y debemos intensificar nuestro esfuerzo allí de manera espectacular '', dijo Zuckerberg.

Los documentos internos de Facebook muestran que, si bien la compañía intensificó sus esfuerzos para combatir el discurso de odio, las herramientas y estrategias para hacerlo nunca dieron sus frutos, y los individuos dentro de la compañía hicieron sonar la alarma repetidamente. En un documento de mayo de 2020, un empleado dijo que un clasificador de texto de incitación al odio que estaba disponible no se estaba utilizando ni se estaba manteniendo. Otro documento de un mes después dijo que había 'brechas significativas' en la detección de información errónea en Myanmar.

'Facebook tomó acciones simbólicas que creo que fueron diseñadas para apaciguar a los legisladores de que se estaba haciendo algo y no era necesario mirar mucho más profundo', dijo Ronan Lee, académico visitante de la Iniciativa contra el Crimen Estatal Internacional de la Universidad Queen Mary de Londres.

En una declaración enviada por correo electrónico a la AP, Rafael Frankel, director de políticas de Facebook para los países emergentes de APAC, dijo que la plataforma 'ha creado un equipo dedicado de más de 100 hablantes birmanos', pero se negó a indicar exactamente cuántos estaban empleados. La empresa de marketing online NapoleonCat estima que hay unos 28,7 millones de usuarios de Facebook en Myanmar.

Durante su testimonio ante el Parlamento de la Unión Europea el 8 de noviembre, Haugen, la denunciante, criticó a Facebook por la falta de inversión en verificación de datos de terceros y por confiar en sistemas automáticos para detectar contenido dañino.

'Si te enfocas en estos sistemas automáticos, no funcionarán para los lugares con mayor diversidad étnica del mundo, con lugares lingüísticamente diversos en el mundo, que a menudo son los más frágiles', dijo al referirse a Myanmar.

Después del testimonio de Zuckerberg ante el Congreso en 2018, Facebook desarrolló herramientas digitales para combatir el discurso de odio y la desinformación y también creó un nuevo marco interno para gestionar crisis como la de Myanmar en todo el mundo.

Facebook elaboró ​​una lista de 'países en riesgo' con niveles clasificados para un 'equipo de países críticos' en los que centrar su energía, y también calificó los idiomas que necesitan más moderación de contenido. Myanmar figuraba como un país en riesgo de 'Nivel 1', y el birmano se consideraba un 'idioma prioritario' junto con los idiomas etíopes, el bengalí, el árabe y el urdu.

Los ingenieros de Facebook enseñaron a sus sistemas automatizados las palabras del argot birmano para 'musulmanes' y 'rohingya'. También entrenó sistemas para detectar 'comportamientos no auténticos coordinados', como la publicación de una sola persona desde varias cuentas, o la coordinación entre diferentes cuentas para publicar el mismo contenido.

La compañía también intentó la 'degradación de infractores reincidentes', que reduce el impacto de las publicaciones de los usuarios que violan las pautas con frecuencia. En una prueba en dos de los países más volátiles del mundo, la degradación funcionó bien en Etiopía, pero mal en Myanmar, una diferencia que desconcertó a los ingenieros, según un informe de 2020 incluido en los documentos.

'No estamos seguros de por qué ... pero esta información proporciona un punto de partida para un mayor análisis e investigación de usuarios', dice el informe. Facebook se negó a comentar sobre el registro si el problema se ha solucionado un año después de su detección o sobre el éxito de las dos herramientas en Myanmar.