Abuso infantil circula no Mastodon, indica pesquisa da Universidade de Stanford

Publicado originalmente em *Desinformante por Liz Nóbrega. Para acessar, clique aqui.

Pesquisadores da Universidade de Stanford, nos Estados Unidos, encontraram, em apenas dois dias, 112 imagens de abuso sexual infantil (CSAM, sigla em inglês) no Mastodon, a primeira delas apareceu após cinco minutos de pesquisa, de acordo com o The Verge.

“Recebemos mais acessos de fotoDNA em um período de dois dias do que provavelmente tivemos em toda a história de nossa organização fazendo qualquer tipo de análise de mídia social, e não chega nem perto”, disse David Thiel, um dos pesquisadores do relatório ao The Washington Post.

A pesquisa também registrou, entre as 325.000 publicações analisadas, 713 usos das 20 hashtags principais sobre o tema, além de 1.217 publicações de texto e 554 peças que correspondiam a hashtags ou palavras-chave frequentemente usadas por grupos de abuso sexual infantil on-line.

O Mastodon é uma rede descentralizada e uma das principais redes alternativas ao Twitter. Por esse descentralização, a moderação do conteúdo é feita em uma escala menor pelos próprios moderadores dos servidores. Ou seja, não há uma operação como nas grandes plataformas.

“Muito disso é resultado do que parece ser uma falta de ferramentas que as plataformas de mídia social centralizadas usam para abordar questões de segurança infantil”, disse Thiel sobre a questão.

Além do Mastodon

Não é só no Mastodon que conteúdos de abuso sexual infantil circulam sem moderação. Em junho, uma outra pesquisa do Observatório da Internet da Universidade de Stanford destacou que o Twitter não estava removendo conteúdo de abuso e pornografia infantil. Através de um sistema de detecção, os pesquisadores identificaram, em meio a 100 mil tweets, 40 imagens ilegais de abuso infantil, que inclusive já haviam sido sinalizadas anteriormente como tal e estavam em um banco de dados para o rastreamento nas plataformas. 

O Observatório também encontrou esse tipo de conteúdo no Instagram, onde os criminosos publicavam as imagens e vídeos em “menus” de conteúdo, de acordo com o Núcleo Jornalismo. O site brasileiro também publicou, nos últimos meses, uma série de denúncias sobre a circulação de pornografia e exploração sexual infantil em grupos do FacebookKwai, TikTok e no ICQ.

Compartilhe:

Share on whatsapp
Share on twitter
Share on facebook
Share on email
Share on linkedin
Share on telegram
Share on google
Language »
Fonte
Contraste