Chatbots de IA confundem fatos com opinião, revela estudo

Publicado originalmente por DW Brasil

Assistentes de inteligência artificial distorcem informações jornalísticas em quase metade dos casos, independentemente do idioma ou da região – é o que revelou um novo estudo realizado em grande escala por 22 organizações de mídia, incluindo a DW. Para a análise, jornalistas de diversas emissoras públicas, como a BBC (Reino Unido) e a NPR (Estados Unidos), avaliaram as respostas de quatro dos assistentes de IA mais utilizados — ChatGPT; Copilot, da Microsoft; Gemini, do Google; e Perplexity AI.

Utilizando critérios como precisão, atribuição de fontes, contextualização, capacidade de editorializar adequadamente e diferenciar fatos de opiniões, o estudo concluiu que 45% das respostas apresentavam pelo menos um problema significativo. Além disso, 31% tinham sérios problemas de atribuição de fontes e 20% continham erros factuais graves. A DW constatou que 53% das respostas fornecidas pelos assistentes de IA às suas perguntas apresentavam problemas relevantes, com 29% dos casos relacionados à precisão das informações.

Leia a matéria completa neste link: https://www.dw.com/pt-br/chatbots-de-ia-confundem-fatos-com-opini%C3%A3o-revela-estudo/a-74455677.

Compartilhe:

Os comentários estão desativados.

Language »