Publicado originalmente por DW Brasil
Assistentes de inteligência artificial distorcem informações jornalísticas em quase metade dos casos, independentemente do idioma ou da região – é o que revelou um novo estudo realizado em grande escala por 22 organizações de mídia, incluindo a DW. Para a análise, jornalistas de diversas emissoras públicas, como a BBC (Reino Unido) e a NPR (Estados Unidos), avaliaram as respostas de quatro dos assistentes de IA mais utilizados — ChatGPT; Copilot, da Microsoft; Gemini, do Google; e Perplexity AI.
Utilizando critérios como precisão, atribuição de fontes, contextualização, capacidade de editorializar adequadamente e diferenciar fatos de opiniões, o estudo concluiu que 45% das respostas apresentavam pelo menos um problema significativo. Além disso, 31% tinham sérios problemas de atribuição de fontes e 20% continham erros factuais graves. A DW constatou que 53% das respostas fornecidas pelos assistentes de IA às suas perguntas apresentavam problemas relevantes, com 29% dos casos relacionados à precisão das informações.
Leia a matéria completa neste link: https://www.dw.com/pt-br/chatbots-de-ia-confundem-fatos-com-opini%C3%A3o-revela-estudo/a-74455677.