Publicado originalmente em *Desinformante por Gabriel Amorim e Matheus Soares. Para acessar, clique aqui.
Nas primeiras eleições com o uso generalizado de Inteligência Artificial e com regulamentação do Tribunal Superior Eleitoral (TSE), os casos foram muitos: imagens falsas criadas com IA, vídeos que simulavam reportagens jornalísticas e até jingles produzidos por meio da ferramenta. Nas três semanas de campanha do segundo turno, um caso específico ganhou notoriedade e espaço na mídia. Trata-se de um áudio, supostamente manipulado, em que o então candidato à prefeitura Fortaleza (CE), pelo PL, André Fernandes dizia estar com medo da derrota nas urnas.
No áudio, uma voz que parecia ser do candidato diz estar com medo de ter sido ultrapassado pelo candidato do PT, Evandro Leitão, e avisa que até domingo (27), data em que ocorreu o segundo turno, “é pra derramar dinheiro na mão de pastor, líder comunitário”. O conteúdo, que circulou em aplicativos de mensagem, repercutiu e acabou no meio de uma acusação de uso indevido de IA, levantada por Fernandes contra Leitão. Apesar da denúncia, o candidato do PL foi derrotado nas urnas e perdeu a prefeitura da capital cearense para o petista.
O caso de uma suposta deepfake em áudio levanta questionamentos: até que ponto o uso de inteligência artificial pode influenciar o resultado de uma eleição? Em entrevista ao *desinformante, o professor e pesquisador em comunicação pela Universidade Federal do Ceará, Diógenes Lycarião, diz que ainda é cedo para cravar uma resposta. “Alguns eventos tiveram ampla repercussão e portanto tem mais chances de ter influência na decisão eleitoral já que tiveram mais visibilidade. Foi o caso do áudio envolvendo o candidato André Fernandes. Não temos como afirmar que isso tenha sido decisivo para o resultado, mas de fato gerou mídia espontânea, a imprensa cobriu. Apesar de não dar pra cravar, é possível pensar nessa influência. A eleição é uma disputa muito acirrada e qualquer evento mais marcante pode sim influenciar”, acredita.
O professor chama atenção para a reação dos próprios candidatos ao episódio. Fernandes chegou a fazer uma denúncia na Polícia Federal e chamou o caso de “ato criminoso”. Fez uma postagem sobre o assunto em suas redes sociais e ainda convocou uma coletiva de imprensa, onde afirmou que o material supostamente sintético teria começado a circular através de um grupo oficialmente vinculado à campanha do adversário petista. Evandro Leitão reagiu afirmando ser a campanha de Fernandes a acostumada na criação de material falso. Para o especialista, toda a repercussão em torno do tema, demonstra que de fato o episódio pode ter sido relevante na corrida eleitoral, apesar de não ser possível dimensionar o tamanho desse impacto.
Dificuldades em confirmar o uso de IA
Outro ponto de destaque no caso é a dificuldade em definir se o áudio foi gerado ou não com uso de ferramentas de IA. Em checagem feita pelo projeto Comprova, especialistas chegaram a resultados opostos. Enquanto um deles afirmou haver um conjunto minimamente robusto de evidências, como irregularidades no ritmo e entonação da voz, entre vários outros aspectos, que indicam que a gravação pode ter sido gerada artificialmente, editada ou ainda imitada, outro afirmou ser mesmo de Fernandes a voz no áudio. As análises feitas por sites de detecção do uso de IA também apresentaram resultados diferentes.
Na justiça, o caso segue em tramitação, o que demonstra a dificuldade de verificar com exatidão e de forma rápida o caráter falso de deepfakes de áudio, A demora pode potencializar ainda mais os efeitos nocivos de uma possível desinformação. Para o professor Diógenes Lycarião, no entanto, não se trata de um fenômeno novo. “O uso da mentira como arma política estava posto desde de antes da IA. O que se tem agora é a exacerbação de um fenômeno que é milenar e que foi ganhando potência e alcance inéditos, com os aplicativos de mensagem, as mídias sociais e agora com a inteligência artificial. É uma utilização que percebemos ser muito estratégica. Muitas pessoas compartilham sabendo ser falso mas querem gerar danos ao adversário ou algum ganho político”, detalha.
Segundo o professor, os impactos poderiam ser ainda maiores, não fossem ações como a regulamentação feita pelo TSE e até o tempo em que o X, antigo Twitter, ficou bloqueado em quase todo o período do primeiro turno. “Não há uma grande ruptura como lá atrás com a popularização das mídias sociais. É a continuação de um processo, talvez até com um certo arrefecimento que fez o problema não aumentar substancialmente”, afirma.
Chatbots fornecem informações erradas no segundo turno
Durante o segundo turno, chatbots de empresas de IA ainda deram respostas com temas eleitorais, algumas delas com informações equivocadas sobre candidatos e resultados do pleito.
O Gemini, dias após o primeiro turno, continuou fornecendo informações sobre candidatos em seis das quinze capitais do país que realizaram segundo turno. A big tech prometeu restringir as respostas da IA sobre política durante as eleições brasileiras de 2022, mas continuou falhando em aplicar integralmente a promessa no país desde o primeiro turno.
A funcionalidade respondeu sobre candidatos nas seguintes cidades: Belo Horizonte (MG), Campo Grande (MS), Curitiba (PR), Fortaleza (CE), Palmas (TO) e São Paulo (SP). Além da diversidade regional, as respostas também englobaram candidatos de diversos espectros políticos, tanto de extrema direita como de centro e de esquerda.
Em relação a Belo Horizonte, a funcionalidade forneceu perfis dos dois candidatos adversários: Bruno Engler (PL) e Fuad Noman (PSD). Sobre Noman, além dos dados sobre histórico político e posicionamento ideológico, o Gemini também chegou a afirmar que o político tinha ganho as eleições no primeiro turno, sendo reeleito para um novo mandato na prefeitura da capital mineira, o que só aconteceu no segundo momento das eleições.
“Fuad Noman é um político com uma trajetória sólida e consistente, que o credencia a liderar Belo Horizonte neste momento de grandes desafios e oportunidades”, escreveu o chatbot do Google.
Dias antes do segundo turno, a IA da Meta também forneceu informações equivocadas e desatualizadas sobre as eleições de São Paulo, como mostrou a Folha. Disponibilizada no país de forma gradual desde o último dia 9, a Meta AI foi questionada sobre os candidatos Ricardo Nunes (MDB) e Guilherme Boulos (PSOL).
Sobre o político do MDB, a ferramenta afirmou que Nunes era filiado ao Republicanos e que atuava como deputado federal, sendo o líder do governo no Congresso Nacional durante a presidência de Jair Bolsonaro. Nenhuma das afirmações é verdadeira.
Em relação a Boulos, o chatbot afirmou que ele foi candidato à presidência em 2018 e 2022. No último pleito, porém, o político foi candidato à Câmara. A ferramenta também afirmou que o candidato do PSOL estava liderando as intenções de voto na pesquisa Datafolha com 23%. No entanto, os resultados da pesquisa mostravam que quem estava na dianteira era Nunes, com 51% das intenções de voto, enquanto o adversário estava com 33%.
Sobre isso, a Meta afirmou que: “Essa é uma tecnologia nova e, por isso, pode nem sempre trazer a resposta que esperamos, assim como acontece com todos os sistemas de IA generativa. Compartilhamos informações nas próprias funcionalidades para ajudar as pessoas a entenderem que a IA pode gerar resultados imprecisos ou inadequados. Desde o nosso lançamento, temos feito atualizações e melhorias constantes em nossos modelos e continuamos trabalhando para torná-los ainda melhores.”