A Organização Mundial da Saúde (OMS) fez um alerta nesta terça-feira (16) pedindo cautela com o uso de ferramentas de modelo de linguagem (LLMs), geradas por inteligência artificial (IA), como o ChatGPT, para ações de saúde pública.
De acordo com a organização, essas ferramentas, que imitam a comunicação humana, “estão gerando um entusiasmo significativo em torno do potencial de atender às necessidades de saúde das pessoas”.
No entanto, a OMS destaca a importância de examinar cuidadosamente os riscos dessas plataformas, para que elas possam ser utilizadas “para aumentar a capacidade de diagnóstico em ambientes com poucos recursos para proteger a saúde das pessoas e reduzir a desigualdade”.
Para a OMS, “a adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes, minar a confiança na IA e, assim, minar (ou atrasar) os potenciais benefícios e usos de longo prazo de tais tecnologias em todo o mundo”.
Na nota publicada nesta terça-feira, a OMS destacou os principais fatores que preocupam a organização:
os dados usados para treinar IA podem ser tendenciosos, gerando informações enganosas ou imprecisas que podem representar riscos à saúde, equidade e inclusão;
os LLMs geram respostas que podem parecer confiáveis e plausíveis para um usuário final; no entanto, essas respostas podem estar completamente incorretas ou conter erros graves, especialmente para respostas relacionadas à saúde;
os LLMs podem ser treinados em dados para os quais o consentimento pode não ter sido fornecido anteriormente para tal uso, e os LLMs podem não proteger dados confidenciais (incluindo dados de saúde) que um usuário fornece a um aplicativo para gerar uma resposta;
LLMs podem ser mal utilizados para gerar e disseminar desinformação altamente convincente na forma de conteúdo de texto, áudio ou vídeo que é difícil para o público diferenciar de conteúdo de saúde confiável.
Diante disso, a OMS recomenda que os formuladores de políticas garantam a segurança e a proteção do paciente enquanto as empresas de tecnologia trabalham para comercializar LLMs.
Também propõe que os riscos sejam avaliados antes que essas ferramentas de inteligência artificial comecem a ser utilizadas de forma generalizada em cuidados de saúde.