TikTok está teniendo dificultades para borrar el vídeo de un suicidio

Un vídeo que muestra a un hombre disparándose con una escopeta comenzó a circular en TikTok este fin de semana. La compañía ha estado trabajando a contrarreloj para evitar que se propague aún más, pero algunos usuarios dicen que el clip perturbador sigue apareciendo en sus feeds, lo que ha generado preocupaciones sobre la eficacia de los sistemas de moderación de TikTok.

Un portavoz de TikTok confirmó a Forbes que “clips de un suicidio” habían aparecido en la plataforma el domingo por la noche después de que el vídeo se transmitiera originalmente en un directo de Facebook. Un portavoz de Facebook confirmó a Gizmodo que el vídeo en cuestión se originó en su plataforma el mes pasado y se refirió al hombre en las imágenes como “Ronnie” en un comunicado enviado por correo electrónico.

Puede leer la declaración de Facebook en su totalidad a continuación:

“Eliminamos el vídeo original de Facebook el mes pasado el día que se transmitió y hemos utilizado tecnología de automatización para eliminar copias y subidas desde ese momento. Nuestros pensamientos permanecen con la familia y los amigos de Ronnie durante este momento difícil”.

Varios usuarios de TikTok comenzaron a subir advertencias el domingo y el lunes explicando a sus seguidores cómo comienza el clip, en el que un hombre de cabello largo y barba habla por teléfono, para que puedan deslizar antes de que ver algo espeluznante. Según señala The Verge, algunos usuarios afirman haber encontrado el clip oculto dentro de otros tiktoks sin ninguna relación.

Si bien el vídeo viola las normas de TikTok, la compañía ha tenido dificultades para contener la situación. Probablemente porque TikTok, a diferencia de otras plataformas de redes sociales como Facebook y Twitter, se basa en gran medida en la página “Para ti” generada algorítmicamente para descubrir contenido e impulsar la participación, lo que hace que sea aún más difícil evitar que los usuarios se tropiecen involuntariamente con un vídeo.

“Nuestros sistemas han detectado y marcado automáticamente estos clips por violar nuestras políticas de contenido al mostrar, glorificar o promover el suicidio”, dijo un portavoz de TikTok a The Verge. “Estamos baneando las cuentas que intentan subir estos clips repetidamente, y apreciamos a los miembros de nuestra comunidad que han informado del contenido y advierten a otros para que no vean o compartan dichos videos en cualquier plataforma por respeto a la persona y su familia”.

“Si alguien en nuestra comunidad está luchando contra pensamientos suicidas o está preocupado por alguien que lo esté, lo alentamos a buscar apoyo y brindamos acceso a líneas directas desde nuestra aplicación y en nuestro Centro de seguridad”, agregó el portavoz.

Si bien son varias las plataformas de redes sociales que han visto cuestionadas sus prácticas de moderación, la supervisión de TikTok en este caso es especialmente atroz porque repite casi exactamente lo mismo que ha sucedido antes. En febrero, un joven de 19 años transmitió en vivo su suicidio en la plataforma y TikTok esperó casi tres horas después de enterarse del incidente antes de comunicarse con las autoridades, según documentos internos vistos por The Intercept.

Eso de por sí es suficientemente horrible, pero más aún si tienes en cuenta que aproximadamente un tercio de sus usuarios son supuestamente menores de 14 años.

Gizmodo