Red Social

Facebook dice que ampliará medidas para eliminar contenido supremacista blanco

AFP, Facebook

AFP, Facebook

Facebook dijo el lunes que tomará nuevas medidas para eliminar el contenido que promueve el nacionalismo blanco y el separatismo blanco después de que una auditoría externa señalara que sus esfuerzos han sido "demasiado reducidos".

La auditoría, dirigida por la defensora de derechos civiles Laura Murphy, indicó que la política de Facebook no ha sido lo suficientemente amplia como para ir más allá de prohibir "elogios, apoyo o representación explícitos" de estos temas.

"Como resultado, se permite que contenido que causaría el mismo daño [que el explícito] permanezca en la plataforma", dijo el equipo de auditoría de Murphy, exintegrante de la American Civil Liberties Union.

Como respuesta a la auditoría sobre derechos civiles iniciada el año pasado, la directora de operaciones de Facebook, Sheryl Sandberg, dijo que Facebook buscará reforzar su política sobre este tipo de discurso de odio.

El grupo ha sido blanco de críticas que lo acusan de estar más concentrado en sus ingresos que en proteger a los usuarios o combatir el engaño, la intimidación y el hostigamiento.

"El informe de hoy recomienda que ampliemos la inclusión de contenido que apoye la ideología nacionalista blanca, aunque los términos 'nacionalismo blanco' y 'separatismo blanco' no se usen explícitamente", dijo Sandberg en un comunicado.

"Estamos abordando esto identificando lemas y símbolos de odio relacionados con el nacionalismo blanco y el separatismo blanco para implementar mejor nuestra política".

El informe es el segundo de Murphy, quien realizó una auditoría de derechos civiles en mayo de 2018 a pedido de la red social líder, que tiene más de 2.000 millones de usuarios.

"Si bien este informe de auditoría muestra que Facebook está progresando, todavía hay mucho trabajo por hacer, y Facebook lo reconoce", dijo Murphy.

"Mientras continúa el trabajo de la compañía en esta área, quiero que este esfuerzo sea aún más sólido y esté más intrínsecamente integrado al ADN de la compañía".

Los auditores señalaron que Facebook ha cometido "persistentes errores de ejecución" de sus medidas para eliminar el discurso de odio.

"Por ejemplo, a veces los usuarios publican fotos que de otro modo violarían las políticas de odio de Facebook, pero acompañan esas fotos con leyendas indicando que no están respaldando el contenido de odio, sino que están llamando la atención sobre el racismo o el odio", explicaron los auditores.

"La investigación de Facebook reveló que su sistema de revisión de contenido no siempre pone el énfasis suficiente en los textos que acompañan las fotos y el contexto (...) Más explícitamente, animar a los supervisores a considerar si el usuario estaba condenando o cuestionando el discurso de odio, en lugar de defenderlo, puede reducir los errores".

En un asunto relacionado, Facebook dijo que incrementará esfuerzos para frustrar cualquier intento de manipular el censo de Estados Unidos a realizarse en 2020, tratando la encuesta de población como si fuera una elección.

"Lo haremos utilizando inteligencia artificial. También nos asociaremos con grupos no partidistas para ayudar a promover la participación proactiva en el censo", dijo Sandberg.