AP – Facebook está dejando que el discurso de odio violento escape de sus controles en Kenia, al igual que en otros países, según un nuevo informe de los grupos sin ánimo de lucro Global Witness y Foxglove.
Se trata de la tercera prueba de la capacidad de Facebook para detectar el lenguaje de odio -ya sea a través de la inteligencia artificial o de moderadores humanos- que los grupos han llevado a cabo, y en la que la empresa ha fallado.
Los anuncios, que los grupos presentaron tanto en inglés como en suajili, hablaban de decapitaciones, violaciones y derramamiento de sangre. Comparaban a las personas con burros y cabras.
Algunos también incluían blasfemias y errores gramaticales. Los anuncios en suajili pasaron fácilmente por los sistemas de detección de Facebook y fueron aprobados para su publicación.
En cuanto a los anuncios en inglés, algunos fueron rechazados al principio, pero sólo porque contenían blasfemias y errores, además de expresiones de odio. Sin embargo, una vez que se eliminaron las blasfemias y se corrigieron los errores gramaticales, los anuncios -que seguían llamando a la muerte y contenían una evidente incitación al odio- se publicaron sin problemas.
“Nos sorprendió ver que nuestros anuncios habían sido marcados por primera vez, pero no lo habían sido por las razones mucho más importantes que esperábamos”, dijo Nienke Palstra, activista principal de Global Witness, con sede en Londres.
Los anuncios nunca se publicaron en Facebook. Pero el hecho de que pudieran haberse publicado fácilmente demuestra que, a pesar de las repetidas garantías de que lo haría mejor, Meta, la empresa matriz de Facebook, sigue sin detectar regularmente la incitación al odio y los llamamientos a la violencia en su plataforma.
Los representantes de Meta no respondieron de inmediato a un mensaje en el que se pedían comentarios el martes. Global Witness dijo que se puso en contacto con Meta después de que sus anuncios fueran aceptados para su publicación y no recibió respuesta.
Cada vez que Global Witness ha presentado anuncios con un discurso de odio flagrante para ver si los sistemas de Facebook lo detectaban, la empresa no lo hizo. En Birmania, uno de los anuncios utilizaba un insulto para referirse a las personas de origen indio oriental o musulmán y llamaba a su asesinato. En Etiopía, los anuncios utilizaban un discurso de odio deshumanizado para pedir el asesinato de personas pertenecientes a cada uno de los tres principales grupos étnicos de Etiopía: los amhara, los oromo y los tigrayanos.
¿Por qué los anuncios y no las publicaciones normales? Porque Meta afirma que los anuncios tienen un nivel de exigencia “aún más estricto” que las publicaciones normales no remuneradas, según su página del centro de ayuda para los anuncios de pago.
Meta se ha negado sistemáticamente a decir cuántos moderadores de contenido tiene en países donde el inglés no es el idioma principal. Esto incluye a los moderadores de Kenia, Myanmar y otras regiones donde el material publicado en las plataformas de la empresa se ha relacionado con la violencia en el mundo real.
Kenia se prepara para unas elecciones nacionales en agosto. El 20 de julio, Meta publicó en su blog un artículo detallado sobre cómo se está preparando para las elecciones del país, incluyendo el establecimiento de un “centro de operaciones” y la eliminación de contenidos perjudiciales.
“En los seis meses anteriores al 30 de abril de 2022, tomamos medidas sobre más de 37.000 contenidos por violar nuestras políticas de discurso de odio en Facebook e Instagram en Kenia. Durante ese mismo periodo, también tomamos medidas sobre más de 42.000 piezas de contenido que violaban nuestras políticas de Violencia e Incitación”, escribió Mercy Ndegwa, directora de políticas públicas en el Este y Cuerno de África.
Global Witness dijo que volvió a enviar dos de sus anuncios, uno en inglés y otro en swahili, después de que Meta publicara su entrada en el blog para ver si había cambiado algo. Una vez más, los anuncios fueron aprobados.
“Si no se ven estos 20 anuncios, esta cifra de 37.000 que se celebra, es probablemente la punta del iceberg. Hay que pensar que hay muchas cosas que (se cuelan) en su filtro”, dijo Palstra.
El informe de Global Witness es la continuación de otro estudio realizado en junio, según el cual Facebook no ha detectado el contenido extremista del grupo Estado Islámico y de Al Shabab en las publicaciones dirigidas a África Oriental. La región sigue amenazada por ataques violentos mientras Kenia se prepara para votar.