El Consejo de Supervisión de Meta está revisando la gestión de una publicación con contenidos que niegan el Holocausto, protagonizado por un personaje de “Bob Esponja”.
Detalles del post y reacción inicial de Meta
La publicación, que data de septiembre de 2020, muestra a Calamardo junto a afirmaciones neonazis que cuestionan el Holocausto. El meme es erróneo al sugerir que la infraestructura para cometer el genocidio se creó tras la Segunda Guerra Mundial.
Usuarios de las plataformas denunciaron el contenido repetidamente, especialmente después de que Meta instaurara una prohibición a la negación del Holocausto en octubre de 2020. Sin embargo, Meta inicialmente descartó las quejas alegando que no incitaba al odio.
En respuesta al anuncio del Consejo, la empresa admitió su error y retiró el post que, según informaron, fue visualizado por aproximadamente 1.000 personas y obtuvo menos de 1.000 “me gusta”.
Acciones del Consejo de Supervisión
El Consejo de Supervisión, al tomar el caso, subraya la relevancia de las críticas hacia las normas de Meta en cuanto a la gestión del antisemitismo y la negación del Holocausto en sus plataformas.
Como parte de su investigación, han solicitado opiniones públicas para abordar cuestiones relacionadas con la responsabilidad de la empresa ante contenidos de esta naturaleza, los posibles daños derivados y el equilibrio entre dignidad, seguridad y libertad de expresión.
Además, se abordará el papel de la automatización en la identificación y moderación de contenidos potencialmente dañinos.
Antecedentes y contexto
Las plataformas de medios sociales, incluidas las de Meta, han sido criticadas por permitir la difusión de discursos de odio, antisemitismo y extremismo. Grupos judíos han pedido controles más rigurosos en el discurso en línea.
Mark Zuckerberg, CEO de Meta, en 2018 pareció defender la libertad de expresión, incluida la negación del Holocausto. Sin embargo, la empresa revirtió su posición en 2020, enfrentando desafíos en su aplicación, como la eliminación accidental de materiales educativos sobre el Holocausto por parte de algoritmos automatizados.
En el caso particular del meme de Calamardo, el proceso automatizado de revisión de Meta falló en varias ocasiones, desestimando quejas debido a políticas relacionadas con la pandemia y categorizando inadecuadamente el contenido.
La complejidad de la revisión automatizada
Las revisiones automatizadas jugaron un papel crucial en la permanencia del post. Se presentaron seis quejas en total, cuatro antes de la prohibición y dos después.
El proceso automatizado de Meta desestimó algunas quejas, alegando que la publicación cumplía con sus políticas, mientras que otras se descartaron debido a una política que priorizaba casos de “alto riesgo” relacionados con la pandemia.
Este incidente destaca los desafíos y la interacción entre revisiones humanas y algoritmos en la moderación de contenidos.