Publicado originalmente em BBC News Brasil por André Biernath. Para acessar, clique aqui.
Você entra no YouTube e começa a assistir um vídeo qualquer sobre ciência e saúde. Do nada, um apresentador passa a falar repetidamente o termo “racoon”, que parece não fazer sentido algum naquele contexto.
Mas para os fãs e seguidores daquele canal, esse é apenas mais um codinome para se referir ao coronavírus — “racoon” é um anagrama (uma mistura das letras) da palavra “corona”.
Essa é apenas uma de nove estratégias principais usadas por produtores de conteúdo para seguir disseminando notícias falsas e teorias da conspiração sobre a pandemia, apesar das recentes limitações e restrições impostas pelo YouTube e outras redes.
Em sua tese de doutorado, a jornalista Dayane Machado faz justamente o monitoramento desses vídeos. A meta dela é entender os comportamentos e as táticas usadas por influenciadores para levar desinformação sobre as vacinas (e outros temas) para milhões de pessoas nos últimos meses.
“Começamos a trabalhar com 20 canais do YouTube e depois expandimos para 50. Nos seis primeiros meses de pandemia no Brasil, analisamos 3.318 vídeos, fizemos uma peneira e selecionamos 1.760 deles para entender como funcionam”, destrincha a pesquisadora, que conduz seu projeto no Departamento de Política Científica e Tecnológica da Universidade Estadual de Campinas (Unicamp).
Machado avalia que a pandemia configurou o cenário perfeito para que a desinformação ganhasse terreno. “Em primeiro lugar, as pessoas tiveram mais tempo livre em casa e muitas passaram a lidar agora com as redes sociais”, avalia.
O segundo ponto detectado pela especialista é uma pressa generalizada para compartilhar informações num momento de tantas incertezas. “Nesse contexto, aparece alguém na internet dizendo que existe uma cura milagrosa, uma solução para essa crise, e muitos acreditam por causa dessa vulnerabilidade toda”, comenta a jornalista.
Confira a seguir os nove macetes e como identificá-los.
1. YouTube como depósito
Quando a covid-19 começou a se espalhar pelo mundo, uma das primeiras atitudes adotadas pelo Google (que é dono do YouTube) foi priorizar fontes oficiais de informação em seus mecanismos de busca.
Pode reparar: se você pesquisar na internet qualquer coisa sobre o coronavírus, os primeiros resultados sempre trarão os conteúdos de instituições como a Organização Mundial da Saúde (OMS), o Centro de Prevenção e Controle de Doenças dos Estados Unidos (CDC), o Ministério da Saúde ou links de veículos de imprensa tradicionais e respeitados.
A gigante de tecnologia chega a “esconder” ou proibir a veiculação de vídeos com informações suspeitas, que não estão de acordo com a evidência científica e o consenso de especialistas ou não podem ser confirmadas.
De acordo com informações enviadas pela assessoria de imprensa do YouTube à BBC News Brasil, desde fevereiro de 2020 a plataforma removeu mais de 800 mil vídeos relacionados à covid-19 que violavam de alguma maneira as políticas da empresa.
Para completar, muitos conteúdos sobre a pandemia também foram “desmonetizados”. Na prática, isso significa que eles não estarão vinculados à propagandas ou não ganharão dinheiro de acordo com a quantidade de visualizações obtidas, que podem ser uma boa fonte de renda para alguns canais.
Mas, assim como o vírus se adapta às adversidades do ambiente e surgem as novas variantes, os produtores de desinformação também souberam criar mecanismos para sobreviver às adversidades.
“Muitos produtores passaram a dizer para seus seguidores entrarem em grupos privados do Telegram ou no Patreon, onde eles dizem que podem falar ‘a verdade’ sem ‘censura'”, explica Machado.
O YouTube, então, passa a ser apenas um depósito, sem relevância na disseminação direta daqueles conteúdos.
Os links dos vídeos são compartilhados em espaços virtuais mais restritos, onde há pouquíssima regulação e as teorias da conspiração podem correr livres e soltas.
2. Celebridades que mordem a isca
Outra tática frequente dos canais de desinformação menores e com poucos seguidores é tentar chamar a atenção de famosos, políticos ou jornalistas.
“Às vezes, uma ideia está restrita a um grupo fervoroso e é amplificada para um público gigantesco quando é compartilhada por alguém com muitos seguidores nas redes sociais”, diz Machado.
A pesquisadora lembra de uma mentira que circulou muito no primeiro semestre de 2020: a de que a covid-19 era uma farsa e os hospitais estavam fechados e vazios, ao contrário do que era noticiado pela imprensa.
“Essa história surgiu nos Estados Unidos e foi mencionada pelo presidente Jair Bolsonaro numa transmissão ao vivo em junho de 2020. A partir daí, foram vários os registros de pessoas que decidiram invadir enfermarias e UTIs para filmar o que acontecia lá dentro”, relata.
Algumas dessas gravações geraram grande comoção e viraram até caso de polícia.
3. Vítimas de censura?
Em muitos casos, o limite entre a liberdade de expressão e a divulgação de notícias potencialmente danosas é tênue.
Quando um influenciador declara a milhões de pessoas que uma vacina pode matar (sem ter nenhuma prova disso), ele está cometendo um crime? Como coibir o compartilhamento de desinformação e punir ou limitar o alcance desses indivíduos, que podem indiretamente influenciar um seguidor a não se proteger e ficar sob risco de pegar uma doença potencialmente fatal?
Em seu trabalho, Machado detectou que muitos canais no YouTube se aproveitam dessas dúvidas e zonas cinzentas para adotar uma postura de vítima.
“Eles dizem que há uma censura a todo mundo que não apoia a visão mainstream da medicina'”, observa.
Num cenário de pandemia, em que a ciência costuma demorar um tempo para oferecer respostas, esse discurso conspiratório ganhou ainda mais força e audiência.
4. Codinomes criativos (e preconceituosos)
Muitos criadores já entenderam que não podem usar termos como “covid-19”, “coronavírus” e “vacina” no título ou na descrição de seus vídeos para não chamar a atenção dos sistemas de vigilância do YouTube.
“Alguns acham que não podem nem falar essas palavras, pois acreditam que existe uma tecnologia para analisar em detalhes todo o áudio”, acrescenta Machado.
Para driblar esses mecanismos, uma prática comum é o uso de codinomes. Um dos casos mais emblemáticos é o “racoon”, que explicamos no início da reportagem.
Entre outros termos comuns, alguns fazem uma alusão xenófoba ao fato de o coronavírus ter sido detectado pela primeira vez na China — influenciadores se referem a “flango flito” ou “país do yakisoba”, por exemplo.
Um terceiro grupo é mais genérico e prefere descrever a covid-19 com frases do tipo “essa doença que está aí”.
5. Recursos gráficos
Os codinomes não são a única sacada dos influenciadores da desinformação.
Seguindo esse mesmo raciocínio de que o áudio dos vídeos é “vigiado”, alguns preferem escrever as palavras “coronavírus” ou “covid-19” em lousas, plaquinhas de papel, telas ou letreiros.
Daí basta apontar para o que está escrito, ou deixar esse recurso gráfico no cenário, para dar o contexto do debate sem falar abertamente nele.
Uma terceira saída são os emojis. Em vez de mencionar diretamente as vacinas, basta colocar o desenho de uma seringa para que boa parte do público compreenda o que está sendo dito.
6. Análise de performance
A veia conspiratória de muitos produtores de conteúdo não se limita à medicina e à ciência: muitos acreditam piamente que são vigiados de perto pelas gigantes da tecnologia.
Para comprovar suas teorias, eles criam canais secundários no YouTube e postam os mesmos vídeos em diferentes contas.
“Eles usam títulos e descrições diferentes, para medir o desempenho em vários ambientes. Pode ser que o canal antigo tenha seu alcance limitado e consiga menos visualizações e comentários em comparação com aqueles que são mais novos, não têm histórico e ainda não estão no radar do YouTube”, explica Machado.
Se o influenciador percebe essa diferença de performance, ele acaba usando isso a seu favor, reforçando mais uma vez o seu papel de “vítima do sistema”.
7. Camuflado na estética gamer
Um dos maiores sucessos do YouTube brasileiro e mundial são os canais gamers.
Eles reúnem profissionais e amadores, que compartilham telas do computador ou do videogame enquanto jogam Minecraft, League of Legends, Fifa, Counter-Strike e outras produções de enorme sucesso.
Em meio a uma partida e outra, esses indivíduos fazem comentários, interagem com outros competidores e até respondem perguntas da audiência.
Alguns produtores que compartilham desinformação sobre as vacinas encontraram uma oportunidade de ouro nesse nicho.
“Eles perceberam que os canais gamers recebem menos atenção do YouTube. Então eles abrem qualquer jogo no computador e, enquanto jogam, ficam espalhando um monte de informação falsa sobre saúde”, destrincha Machado.
Um exemplo célebre de desinformação sobre a pandemia dentro do mundo dos videogames aconteceu com Renan Bolsonaro, um dos filhos mais jovens do presidente.
Em maio de 2020, ele estava fazendo uma transmissão ao vivo na Twitch, uma plataforma de vídeos focada nos jogos eletrônicos, quando disse: “Que pandemia? Isso é história da mídia aí, para trancar você dentro de casa, para achar que o mundo está acabando. É só uma gripezinha, irmão”.
Logo na sequência, a Twitch baniu a conta de Bolsonaro para sempre.
Ele criticou a decisão numa postagem no Twitter, dizendo que foi uma “piada fora de contexto” e deveria ter sua liberdade de expressão respeitada: “Interessante é que a rede social mantém perfis que disseminam claramente a misandria (ódio, o desprezo ou o preconceito contra homens ou meninos), mas não suportam uma brincadeira, por mais pesada que fosse”.
8. Vencer pelo cansaço
Uma funcionalidade muito utilizada no YouTube são as lives, ou transmissões ao vivo.
O site permite agendar dias e horários, convidar as pessoas e aproveitar uma série de recursos para estreitar o relacionamento com o público (falaremos sobre essas possibilidades no próximo tópico).
Uma estratégia usada por muitos produtores é fazer lives longuíssimas, com mais de três horas de duração.
“Como elas são enormes, fica difícil fazer um monitoramento contínuo por tanto tempo”, constata Machado.
Esses conteúdos ao vivo viram uma boa fonte de renda para os produtores: na própria transmissão, eles veiculam propagandas de empresas pequenas, que aproveitam o espaço para promover seus produtos e serviços.
Depois, essas lives são editadas em trechos menores e viram novos conteúdos, que muitas vezes alcançam ainda mais pessoas.
9. Seguidores especiais
Para os canais com um número maior de fãs, as transmissões ao vivo trazem mais uma vantagem: o Super Chat e os Super Stickers.
Os espectadores podem pagar um valor (que varia de R$ 2 a R$ 500) para ter o seu comentário ou sua figurinha em destaque durante a live por um período — quanto maior o valor, mais tempo a mensagem permanece nas primeiras posições.
A maior parte desse dinheiro vai direto para o produtor, mas o YouTube fica com uma parcela também.
“Nós encontramos alguns canais que estão desinformando sobre as vacinas e a covid-19 que têm acesso a essas funcionalidades”, aponta Machado.
O outro lado
Procurada pela BBC News Brasil, a assessoria de imprensa do YouTube enviou uma nota com esclarecimentos a respeito do tema.
Entre os pontos apresentados, a plataforma afirma que, nos últimos anos, investiu “em políticas, recursos e produtos necessários para cumprir o compromisso de proteger a comunidade contra conteúdo duvidoso”.
Ainda de acordo com a resposta, o site atua em três pilares: “remover conteúdo que viola as políticas da empresa, reforçar o aumento de conteúdos confiáveis e reduzir a disseminação de conteúdos duvidosos”.
O YouTube parece apostar bastante na informática para lidar com informações enganosas. “Em 2020, dos 34,7 milhões de vídeos removidos, mais de 32 milhões foram identificados pelos nossos sistemas automatizados — destes, 44% foram removidos antes de receber uma única visualização”.
Durante a pandemia, foram criadas na plataforma algumas playlists com conteúdos verificados sobre a covid-19 e quadros e botões que direcionam o usuário para o site do Ministério da Saúde.
O que fazer a mais?
Ainda que o YouTube tenha mudado e reforçado algumas de suas políticas, Machado reforça que encontra problemas e gargalos que permitem a disseminação de informações falsas na plataforma.
“Vários vídeos denunciados por transmitir desinformação continuam disponíveis e, pior, seguem vinculados a anúncios”, revela.
Como solução para o problema, a jornalista e pesquisadora segue um conselho defendido pela cientista social americana Joan Donovan, da Universidade Harvard.
“Precisamos de um exército de bibliotecários. Eles representam uma mão de obra capacitada para categorizar e monitorar a plataforma com eficiência”, sugere.
É preciso pensar também em como classificar o que é desinformação e liberdade de opinião. “Podemos aliar os filtros automáticos baseados em inteligência artificial com a moderação feita por seres humanos”, completa a especialista.