Como as redes sociais combatem lives com ameaças e conteúdo violento
Entenda como tecnologias de inteligência artificial e equipes de moderação em plataformas como o TikTok agem para derrubar vídeos perigosos
compartilhe
SIGA
Um caso recente em Ipatinga (MG) exemplificou a agilidade das plataformas digitais em conter ameaças. No dia 10 de março, a transmissão ao vivo de um adolescente com um simulacro de arma nas proximidades de uma escola foi rapidamente detectada pelo TikTok. A própria inteligência artificial da plataforma identificou o conteúdo perigoso e alertou as autoridades, levando à apreensão do jovem no mesmo dia. O episódio mostra como a combinação de tecnologia e ação humana é crucial para identificar e derrubar conteúdos violentos em tempo real.
O processo é complexo e começa antes mesmo de um usuário fazer uma denúncia. As plataformas utilizam sistemas de inteligência artificial (IA) que monitoram as transmissões ao vivo de forma proativa. Esses algoritmos são treinados para detectar sinais de violação das regras da comunidade.
Leia Mais
Deepfake: entenda a tecnologia de IA que cria vídeos ultrarrealistas
Guia prático para identificar um vídeo de político feito com IA
Como a inteligência artificial funciona
A tecnologia atua como a primeira linha de defesa, analisando múltiplos fatores simultaneamente para identificar possíveis ameaças. Essa varredura automática busca por padrões específicos que podem indicar perigo iminente ou conteúdo inadequado.
Os principais pontos de análise da IA incluem:
Análise visual: a tecnologia é capaz de identificar objetos como armas, facas ou símbolos associados a grupos de ódio diretamente no vídeo.
Palavras-chave: o sistema monitora o áudio da live e os comentários em busca de termos relacionados a violência, ameaças ou discurso de ódio.
Engajamento suspeito: um aumento súbito e anormal de denúncias ou de comentários negativos em uma transmissão pode acionar um alerta para revisão imediata.
Quando a inteligência artificial detecta uma violação clara e grave, como a exibição de uma arma, a transmissão pode ser interrompida automaticamente. No entanto, em casos mais subjetivos, o conteúdo é encaminhado para análise humana.
A importância da moderação humana
A tecnologia, apesar de avançada, ainda não compreende totalmente o contexto. Por isso, equipes de moderadores humanos trabalham 24 horas por dia para revisar o conteúdo sinalizado. São eles que tomam a decisão final de remover um vídeo, suspender ou banir uma conta.
Esses profissionais são essenciais para interpretar nuances que a IA pode não captar. Além da revisão do material sinalizado pelos algoritmos, eles analisam as denúncias feitas pelos próprios usuários, que continuam sendo uma ferramenta fundamental para manter o ambiente das redes mais seguro.
Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia
Uma ferramenta de IA foi usada para auxiliar na produção desta reportagem, sob supervisão editorial humana.