Facebook se ha situado en el centro de la polémica producto de la transmisión en vivo que realizó en la red social el responsable del tiroteo en una mezquita de Nueva Zelanda, que dejó al menos 49 víctimas fatales.
PUBLICIDAD
Brenton Tarrant, el nombre con el que se identificó el individuo que protagonizó el ataque terrorista en Christchurch, transmitió a través de Facebook Live 17 minutos de los sucesos, que recoge su traslado a las mezquitas, el tiroteo y su retirada del lugar.
La red social no interrumpió en ningún momento el registro a pesar de las crudas imágenes que se estaban transmitiendo.
Facebook dijo que eliminó una transmisión en vivo de las matanzas, así como las cuentas del agresor en esta red social e Instagram, tras recibir un aviso de la policía.
La empresa “está eliminando cualquier elogio o apoyo al crimen y al agresor o los agresores apenas nos enteramos”, indicó la vocera de Facebook Nueva Zelanda, Mia Garlick.
No obstante, al momento de borrarlo el video había sido visto por millones de usuarios alrededor de todo el mundo.
Acciones de Facebook
Las directrices de la empresa de Mark Zuckerberg se limitan a informar a los usuarios que pueden reportar el contenido inapropiado que detecten en la red social, para luego ser analizado por el equipo de la compañía que decidirá si bajar o no la publicación, lo que toma algo de tiempo.
PUBLICIDAD
Sin embargo, durante los últimos años surgieron una serie de críticas contra Facebook por permitir las transmisiones de suicidios y ataques.
Desde 2011, la plataforma cuenta con un botón para reportar contenido de suicidio y en 2017 puso en marcha un algoritmo que detecta posibles conductas suicidas junto con contratar al menos tres mil nuevos empleados para detectar este tipo de publicaciones.
«Hemos visto gente que se hace daño a sí misma y a otros en Facebook o en directo o en un vídeo publicado más tarde. Es desgarrador y he estado reflexionando acerca de cómo podemos hacerlo mejor», indicó Mark Zuckerberg ese año.
El algoritmo escanea las publicaciones, comentarios y videos de usuarios alrededor de todo el mundo, a excepción de la Unión Europea debido a las leyes de privacidad que rigen ahí, y busca indicios de riesgo inmediato de suicidio, deriva el caso a trabajadores que luego llaman a las autoridades locales, según relata New York Times.
Si bien existen casos donde el algoritmo ha evitado suicidios alrededor de todo el mundo, lo cierto es que Facebook aún queda al debe con la transmisión de contenido violento como tiroteos o atentados.