Redes sociales

El vídeo original del tiroteo de Nueva Zelanda se vio en Facebook unas 4.000 veces antes de bloquearse

Published

on

¡Comparte esta publicación!

En los tiempos de reacción está la clave. El tiroteo de Nueva Zelanda ha vuelto a poner en cuestión a las redes sociales y su capacidad para reducir la viralidad de unos hechos que pueden herir sensibilidades. Facebook ha asegurado que la retransmisión en directo de Brenton Tarrant, autor de la masacre en la mezquita de Christchurch que dejó unas 50 personas muertas, se pudo ver unas 200 veces aunque alcanzó las 4.000 reproducciones antes de ser eliminado por la compañía.

La multinacional estadounidense ha desvelado el resultado de una auditoría interna para esclarecer de qué manera se pudieron saltar los controles de revisión durante unos 17 minutos antes de bloquear la emisión en «streaming» y eliminar las cuentas del sospechoso. El primer informe sobre el video original se realizó 29 minutos después del comienzo de la transmisión y 12 minutos después de que terminó.

Antes de recibir una alerta sospechosa sobre el video, un usuario de la red social 8chan publicó un enlace con el video en un servicio para compartir archivos, con lo que las secuencias se amplificaron. Después de eliminar el contenido, el vídeo, sin embargo, dio la vuelta al mundo al saltar a otras plataformas como YouTube, Twitter o Instagram.

Para bloquear un contenido violento o que infrinja los derechos de autor, Facebook cuenta con un sistema combinado de algoritmos y revisores humanos, pero estos automatismos se basan en archivos que ya presentes en sus bases de datos para agilizar el proceso. En un atentado, su detección es más complicada, reconoce en un comunicado Chris Sonderby, vicepresidente y consejero general adjunto de Facebook. «Eliminamos el video original de Facebook Live y lo fragmentamos para que otras acciones visualmente similares a ese video puedan detectarse y se eliminen automáticamente de Facebook e Instagram», subraya.

Advertisement

En las primeras 24 horas, Facebook eliminó alrededor de 1,5 millones de videos del ataque a nivel mundial. Más de 1,2 millones de esas publicaciones se bloquearon en el proceso de carga: «Por tanto se impidió verse en nuestros servicios», añade. El directivo de la compañía ha adelantado, sin embargo, que la red social identifica contenido abusivo en otras redes sociales «para evaluar si ese contenido podría migrar a una de nuestras plataformas».

 

Escriba una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Salir de la versión móvil