Por que o TikTok não consegue remover aquele vídeo perturbador do suicídio?

Por que o TikTok não consegue remover aquele vídeo perturbador do suicídio?

O TikTok está lutando para remover um vídeo perturbador do suicídio de um homem, três dias depois de ter sido enviado para o aplicativo.

O clipe supostamente mostra o veterano do exército Ronnie McNutt, de 33 anos, que, de acordo com The New York Post , deu um tiro na cabeça em uma transmissão ao vivo do Facebook em 31 de agosto. Foi relatado que McNutt, do Mississippi, havia recentemente perdido o emprego em uma fábrica da Toyota em Blue Springs e tinha terminado com sua namorada. Desde então, o vídeo se tornou viral em várias plataformas de mídia social, incluindo o TikTok.

TikTok’s ‘For You’ é um fluxo infinito de vídeos baseado em algoritmos que seleciona clipes de pessoas que os usuários não necessariamente seguem. Muitos relataram ter encontrado o clipe aleatoriamente e expressaram como foi traumatizante ser confrontado pela filmagem. Dado o público jovem da TikTok - 69 por cento têm entre 13 e 24 anos - isso tem causado ainda mais preocupação com o bem-estar mental.

Na noite de domingo, clipes de suicídio originalmente transmitidos ao vivo no Facebook circularam em outras plataformas, incluindo a TikTok, disse um porta-voz da TikTok ao Dazed. Nossos sistemas, junto com nossas equipes de moderação, têm detectado e bloqueado esses clipes por violarem nossas políticas contra conteúdo que exibe, elogia, glorifica ou promove o suicídio.

@alluringskull

## tela verde

♬ som original - alluringskull

Estamos proibindo contas que tentam enviar clipes repetidamente e agradecemos os membros de nossa comunidade que relataram conteúdo e alertaram outras pessoas contra assistir, se envolver ou compartilhar esses vídeos em qualquer plataforma por respeito à pessoa e sua família.

Apesar da promessa de ação, o vídeo permanece no aplicativo. Vários usuários postaram engajamento que tiveram com os moderadores do TikTok, que supostamente lhes contaram o vídeo não viola nossas Diretrizes da comunidade . Dazed pediu a TikTok mais esclarecimentos sobre por que isso está acontecendo.

Agora, os usuários do aplicativo começaram a resolver o problema por conta própria, compartilhando vídeos alertando outras pessoas sobre a presença do clipe de suicídio no TikTok. Por favor, tente não ir ao TikTok hoje ou amanhã, um vídeo disse . Há um vídeo de suicídio muito gráfico e sangrento (sic) circulando agora mesmo!

Outro usuário postou um clipe , que abordou rumores de que a filmagem é falsa. Na realidade, não é falso, disse @alluringskull. O usuário então mostra uma imagem do vídeo, que mostra McNutt sentado em uma mesa com um telefone no ouvido. Se você ver isso, pause o vídeo, role para longe, @alluringskull adicionado. Por favor, pare de tratar isso como um meme, pare de tratar isso como uma piada, esta é uma pessoa real que faleceu e sua família está sofrendo.

Sinceramente, pensei que era falso até que olhei para ele. Fiquei horrorizado ao ver que o TikTok permitiu que essas coisas permanecessem em seu aplicativo por tanto tempo - James, usuário do TikTok

Um usuário chamado James recebeu o vídeo de seu amigo e o abriu sem saber o que era. Sinceramente, pensei que era falso até que investiguei, ele disse a Dazed em uma mensagem direta. Fiquei horrorizado ao ver que a TikTok permitiu que essas coisas permanecessem em seu aplicativo por tanto tempo.

Esta não é a primeira vez que o TikTok é criticado por seus esforços de moderação insuficientes. Em fevereiro, a plataforma de compartilhamento de vídeo levou três horas para contar à polícia sobre um suicídio transmitido ao vivo pelo aplicativo. O vídeo do corpo da vítima permaneceu ao vivo por mais de uma hora e meia antes de ser retirado. A TikTok supostamente tomou medidas para evitar que a postagem se tornasse viral antes de notificar as autoridades.

Em julho, as diretrizes de moderação do app foram questionadas mais uma vez, após seu algoritmo promoveu uma coleção de memes anti-semitas , trilha sonora das letras, Estamos indo em uma viagem para um lugar chamado Auschwitz, é hora do banho . Quase 100 usuários apresentaram a música em seus vídeos, que permaneceram no aplicativo por três dias (oito horas após a plataforma ter sido alertada de sua presença pelo BBC )

Mais recente do TikTok Transparency Report - publicado em julho - diz que o aplicativo removeu mais de 49 milhões de vídeos em todo o mundo no segundo semestre do ano passado, com 98,2% deles removidos antes de serem relatados. 89,4 por cento deles foram removidos antes de receberem quaisquer visualizações. No entanto, a TikTok é conhecida por censurar usuários e conteúdo que não viole as diretrizes, incluindo um adolescente que criticou a China (onde a empresa está localizada), aqueles considerados feios, pobres ou deficientes e criadores negros.

O aplicativo admite que não detectará todas as ocorrências de conteúdo impróprio e afirma que continuará a investir em tecnologia e especialistas para tornar o TikTok o mais seguro possível. Ontem (8 de setembro), o app juntou o Código de Conduta da União Europeia para o Combate ao Discurso de Ódio Ilegal, que se compromete a reprimir o conteúdo de ódio e ilegal.

Nosso objetivo final é eliminar o ódio em TikTok, disse um porta-voz em um comunicado. Reconhecemos que isso pode parecer um desafio intransponível à medida que o mundo está cada vez mais polarizado, mas acreditamos que isso não deve nos impedir de tentar.

Atualização (24 de setembro): TikTok disse que o vídeo do suicídio foi enviado para o aplicativo como parte de um esforço coordenado por atores mal-intencionados. Em um comunicado, a plataforma de compartilhamento de vídeo disse: Por meio de nossas investigações, descobrimos que grupos que operam na dark web fizeram planos para invadir plataformas de mídia social, incluindo o TikTok, a fim de espalhar o vídeo pela internet. O que vimos foi um grupo de usuários que tentava repetidamente enviar o vídeo para nossa plataforma.

A TikTok também enviou uma carta a outras plataformas de mídia social, incluindo Facebook, YouTube e Twitter, propondo que se notifiquem quando conteúdo violento e gráfico estiver circulando em seus sites.

Se você está lutando com problemas de saúde mental, pode entrar em contato com os especialistas em prevenção de suicídio Samaritanos no Reino Unido aqui e a National Suicide Prevention Lifeline nos EUA aqui .