Facebook y la incitación a la violencia en Myanmar
Al desplazarse por la red social hoy, no es difícil encontrar publicaciones que amenacen con asesinato y violación en ese país.
-
Facebook y la incitación a la violencia en Myanmar
Años después de ser objeto de escrutinio por contribuir a la violencia étnica y religiosa en Myanmar, Facebook todavía tiene problemas para detectar y moderar ese tipo de discurso y la información errónea en su plataforma en la nación del sudeste asiático, según muestran documentos internos vistos por The Associated Press.
Al desplazarse por Facebook hoy, no es difícil encontrar publicaciones que amenacen con asesinato y violación en Myanmar. Un video de 2 1/2 minutos publicado el 24 de octubre de un partidario del ejército que llama a la violencia contra los grupos de oposición ha obtenido más de 56 mil visitas.
A pesar de los problemas en curso, la compañía vio sus operaciones en Myanmar como un modelo para exportar en todo el mundo y un caso cáustico y en evolución. Los documentos revisados por AP muestran que esa nación se convirtió en un campo de pruebas para la nueva tecnología de moderación de contenido, con el gigante de las redes sociales probando formas de automatizar la detección de discursos de odio y desinformación con diferentes niveles de éxito.
Facebook ha tenido en Myanmar una historia más corta pero más volátil que en la mayoría de los países. Después de décadas de censura bajo el régimen militar, esa nación se conectó a Internet en 2000. Poco después, Facebook se asoció con proveedores de telecomunicaciones en el país, lo que permitió a los clientes usar la plataforma sin necesidad de pagar por los datos, que todavía eran costosos en ese momento. Para muchos en Myanmar, Facebook se convirtió en la propia Internet.
Htaike Htaike Aung, un defensor de la política de Internet de Myanmar, dijo que también se convirtió en “un semillero para el extremismo” alrededor de 2013, coincidiendo con disturbios religiosos entre budistas y musulmanes. No está claro cuánta moderación de contenido, si es que hubo alguna, estaba ocurriendo en ese momento.
En marzo de 2018, los expertos en derechos humanos de las Naciones Unidas que investigaban los ataques contra la minoría musulmana rohingya de Myanmar dijeron que Facebook había desempeñado un papel en la difusión del discurso de odio.
Cuando se le preguntó sobre Myanmar un mes después durante una audiencia en el Senado de los Estados Unidos, el director ejecutivo Mark Zuckerberg respondió que Facebook planeaba contratar “docenas” de hablantes birmanos para moderar el contenido, trabajaría con grupos de la sociedad civil para identificar figuras de odio y desarrollar nuevas tecnologías para combatir el discurso.
Los documentos internos de la empresa muestran que, si bien intensificó sus esfuerzos para combatir el discurso de odio, las herramientas y estrategias para hacerlo nunca dieron sus frutos por completo, y las personas dentro de la compañía hicieron sonar la alarma repetidamente.
“Facebook tomó acciones simbólicas que creo que fueron diseñadas para apaciguar a los legisladores de que se estaba haciendo algo y no necesitaba mirar mucho más profundo”, dijo Ronan Lee, académico visitante de la Iniciativa contra el Crimen Estatal Internacional de la Universidad Queen Mary de Londres.
Después del testimonio de Zuckerberg ante el Congreso en 2018, la red social desarrolló herramientas digitales para combatir el discurso de odio y la desinformación y también creó un nuevo marco interno para gestionar crisis como la de Myanmar en todo el mundo.
Facebook elaboró una lista de “países en riesgo” con niveles clasificados para un “equipo de países críticos” en los que centrar su energía, y también calificó los idiomas que necesitan más moderación de contenido. Myanmar figuraba como un país en riesgo de “Nivel 1”, y el birmano se consideraba un “idioma prioritario” junto con los idiomas etíopes, el bengalí, el árabe y el urdu.