OMS aponta três riscos do uso da inteligência artificial na saúde

Publicado originalmente em ONU News. Para acessar, clique aqui.

Agência da ONU pede cautela com plataformas que simulam comunicação humana; falta de mecanismos que garantam uso seguro e ético das novas tecnologias é ponto de preocupação.

A inteligência artificial aplicada na saúde pode gerar orientações incorretas, violação de dados pessoais e disseminar desinformação. O alerta é da Organização Mundial da Saúde, OMS.

A entidade pede cautela com plataformas como ChatGPT, Bard, Bert e diversas outras que imitam a compreensão, o processamento e a produção da comunicação humana.

Ampla difusão

Segundo a OMS, as chamadas ferramentas de modelo de linguagem, LLMs, geradas por inteligência artificial podem representar riscos para o bem-estar humano e para a saúde pública.

Os especialistas da agência consideram que a rápida e ampla difusão das LLMs e o crescente uso experimental para fins relacionados à saúde não está sendo acompanhado por mecanismos de controle.

Isso inclui adesão das plataformas de inteligência artificial a valores como transparência, inclusão, engajamento público, supervisão especializada e avaliação rigorosa.

A OMS reconhece que o uso apropriado de tecnologias, incluindo LLMs, pode contribuir para apoiar profissionais de saúde, pacientes, pesquisadores e cientistas. felipe

As novas plataformas podem ser uma ferramenta de apoio às decisões médicas e aumentar a capacidade de diagnóstico em ambientes com poucos recursos. O foco deve estar em proteger a saúde das pessoas e reduzir a desigualdade.

A Inteligência Artificial é uma grande promessa para melhorar a prestação de cuidados de saúde e medicamentos em todo o mundo, mas apenas se a ética e os direitos humanos forem colocados no centro de seu design e implantação, de acordo com a Organização …

Unsplash/Possessed Photography

A Inteligência Artificial é uma grande promessa para melhorar a prestação de cuidados de saúde e medicamentos em todo o mundo, mas apenas se a ética e os direitos humanos forem colocados no centro de seu design e implantação, de acordo com a Organização Mundial da Saúde, OMS

Adoção precipitada

Mas a entidade ressalta que os riscos associados ao uso dessas ferramentas para melhorar o acesso a informações de saúde precisam ser avaliados cuidadosamente.

A adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes e minar a confiança na inteligência artificial e em tecnologias futuras.

Os dados usados ??para treinar a inteligência artificial podem ser tendenciosos, gerando informações enganosas ou imprecisas que podem representar riscos à saúde, à equidade e à inclusão.

Algumas preocupações da OMS são:

• LLMs geram respostas que podem parecer confiáveis ??e plausíveis para um usuário final. No entanto, essas respostas podem estar completamente incorretas ou conter erros graves, especialmente para temas relacionados à saúde.

• LLMs podem ser treinados em dados para os quais o consentimento pode não ter sido fornecido anteriormente. Além disso, essas ferramentas não necessariamente protegem dados confidenciais, incluindo de saúde, que um usuário fornece para gerar uma resposta.

• LLMs podem ser utilizados para gerar e disseminar desinformação altamente convincente na forma de texto, áudio ou vídeo, tornando difícil para o público diferenciar conteúdo falso de conteúdo confiável.

A OMS propõe que essas preocupações sejam abordadas com base em evidências. Uma análise de riscos e benefícios deve preceder o uso generalizado em cuidados de saúde e medicina de rotina, seja por indivíduos, prestadores de serviços e formuladores de políticas.

Compartilhe:

Share on whatsapp
Share on twitter
Share on facebook
Share on email
Share on linkedin
Share on telegram
Share on google
Language »
Fonte
Contraste