Facebook falla en detección de amenazas de muerte, según universidad de EEUU

La universidad neoyorquina NYU puso en duda la seguridad en la red social Facebook y la acusa de no haber detectado el envío de 15 anuncios que contenían amenazas de muerte contra trabajadores electorales.

Esas amenazas fueron enviadas solo a modo de prueba por un equipo investigador -junto al grupo Global Witness- para evaluar los protocolos de seguridad de varios gigantes tecnológicos, y entre las redes sometidas a prueba estuvieron también TikTok y YouTube, que demostraron tener mejores herramientas de detección.

El estudio consistió en la identificación de diez ejemplos reales de amenazas de muerte contra trabajadores electorales y su envío, antes de la jornada electoral del pasado 8 de noviembre, a estas plataformas en forma de anuncios publicitarios.

La universidad apuntó que este método le permitió comprobar si el anuncio era aceptado o rechazado por las plataformas, y en todo caso lo retiraron antes de que se hiciera público.

 «La investigación reveló resultados marcadamente dispares entre los gigantes de las redes sociales: YouTube y TikTok suspendieron nuestras cuentas por violar sus políticas, mientras que Facebook aceptó 15 de los 20 anuncios que contenían amenazas de muerte y que les enviamos para su publicación», asegura la universidad.

El informe recoge que en la publicidad que enviaron, retiraron antes los insultos y corrigieron los errores gramaticales, porque en pruebas anteriores habían detectado el rechazo de Facebook de anuncios que contenían «discurso de odio» por las faltas ortográficas y no por su contenido, ya que fueron admitidos una vez corregidos los errores gramaticales.

Los anuncios, escritos originalmente en inglés, fueron también enviados en español y, según el informe, «en todos los casos, todas las amenazas de muerte eran diáfanamente claras en su idioma; ninguno estaba codificado o era difícil de interpretar».

La NYU insistió en que mientras TikTok y YouTube suspendieron las cuentas porque quebrantaban sus políticas, Facebook aceptó nueve de los diez anuncios con amenazas de muerte enviados en inglés y seis de los diez que se mandaron en español.

Además, asegura que a pesar de que sí se detectaron dos de los mensajes, Facebook no eliminó ni bloqueó la cuenta desde la que se enviaron.

Meta, matriz de Facebook, consultada por los investigadores consideró que la muestra de los anuncios enviados no era representativa e insistió en su rechazo de cualquier contenido que incite a la violencia contra los trabajadores electorales o cualquier otra persona.

El informe apunta que Meta les dijo que su efectividad a la hora de bloquear este tipo de contenido supera a la de otras plataformas, aunque no aportó ninguna prueba mensurable. EFE

CMV

Licenciada en Ciencias de la Información y Comunicación Social y Diplomado en Medio Impresos Experiencia como periodista y editora de suplementos. Es editora digital.

Publicaciones relacionadas

Botón volver arriba