Publicado originalmente em Instituto Palavra Aberta por Daniela Machado. Para acessar, clique aqui.
* Daniela Machado é coordenadora do EducaMídia, programa de educação midiática do Instituto Palavra Aberta
Nos deram espelhos, e vimos um mundo repleto de preconceitos. Pego carona na estrofe de “Índios”, canção lançada pela Legião Urbana na longínqua década de 1980, para discutir um tema atualíssimo: como ferramentas de inteligência artificial podem perpetuar uma visão estereotipada de determinados grupos da sociedade, como as mulheres.
A popularização dos aplicativos de IA que geram imagens a partir de comandos de texto, como DALL.E, Bing Image Creator, MidJourney e outros, é fascinante mas também desafiadora. Não faltam relatos de como as mulheres são majoritariamente retratadas em situações ou profissões menos qualificadas, ou de maneira objetificada em figuras geradas artificialmente.
As inteligências artificiais alimentam-se de bancos de dados que, por sua vez, espelham os valores da sociedade. Mais do que replicar comportamentos e situações preconceituosas, no entanto, as novas tecnologias podem acabar por amplificá-los.
Para ilustrar o problema, a agência de notícias Bloomberg analisou em 2023 mais de 5.000 imagens geradas pela ferramenta Stable Diffusion e concluiu que, no universo fabricado por essa aplicação de IA, as mulheres raramente são médicas, advogadas e juízas. Apenas 3% das imagens geradas a partir da palavra-chave “judge” (juiz ou juíza em inglês) retratavam figuras femininas, enquanto 34% dos juízes nos Estados Unidos são mulheres, de acordo com dados do setor citados pela Bloomberg. Ao testar a palavra “doctor” (médico ou médica em inglês), a agência obteve retratos femininos em apenas 7% das imagens geradas artificialmente, ao passo que o país conta com 39% de seu quadro médico formado por mulheres.
Um estudo conduzido por pesquisadores da Universidade de Washington detectou viés de gênero também em ferramentas de IA que traduzem conversas de um idioma para outro. O grupo tinha como objetivo analisar de que forma o ChatGPT traduziria para o inglês frases em seis idiomas que usam apenas pronomes de gênero neutros (bengali, farsi, malaio, tagalo, tailandês e turco).
Ao traduzir um pronome neutro para o inglês, a ferramenta usou “ele” ou “ela” dependendo do contexto da frase. “Em particular, o chatbot perpetuou estereótipos em certas profissões. Uma frase em bengali usava um pronome neutro em uma sentença com a palavra ‘doctor’ (médico ou médica em inglês), mas a tradução do ChatGPT usou ‘he’ (ele) ou ‘him’ (dele)”, descreveram os pesquisadores em um artigo.
Como o software por trás do ChatGPT não é aberto, os cientistas não puderam determinar como funcionou exatamente o mecanismo de tradução. A suspeita é que, treinada a partir de uma base de dados predominantemente em inglês ou ocidental, a IA acabou perpetuando estereótipos que povoam o gigantesco arquivo a partir do qual “aprende” a realizar tarefas.
Outras análises e pesquisas têm se debruçado sobre o viés de gênero das IAs. Não se trata de um movimento para demonizar ou afastar as inovações. Pelo contrário; tais ferramentas serão mais úteis quanto mais atentos e questionadores forem seus usuários. Daí a necessidade de pensarmos também em ações de educação digital que não se restrinjam ao conhecimento operacional das novas tecnologias: mais do que ensinar como construir os melhores comandos para ativar as ferramentas de IA (os chamados “prompts”), por exemplo, temos que incentivar o olhar crítico da sociedade para identificar problemas e cobrar correções.
Aplicações de IA já estão por aí há algum tempo, nos buscadores da internet e nos sistemas de recomendação de streamings de filmes e música, entre outras situações, e a tendência é de que fiquem cada vez mais embrenhadas em nosso dia a dia. Precisamos, o quanto antes, discutir com transparência seu potencial e seus problemas, e o Dia Internacional da Mulher (8 de março) pode proporcionar discussões frutíferas.
Que o espelho proporcionado pela IA seja uma oportunidade para enfrentarmos o viés de gênero.
(Foto: ThisIsEngineering/Pexels)