Comentários

Pesquisa publicada na revista científica Future Science OA aponta limites do ChatGPT em responder a perguntas sobre câncer.

O estudo, liderado por pesquisadores da Universidade de Miami, mostra que a ferramenta acertou em perguntas gerais sobre a doença, mas falhou em oferecer respostas precisas sobre tratamentos mais novos.

A pesquisa reforça a necessidade de cautela e a supervisão médica ao buscar informações de saúde em inteligências artificiais.

Um estudo recente publicado na revista Future Science OA avaliou a precisão do ChatGPT 3.5, versão gratuita do chatbot, em responder a perguntas sobre câncer hematológico.

A pesquisa, conduzida por uma equipe liderada pelo médico-cientista Justin Taylor, do Sylvester Comprehensive Cancer Center da Universidade de Miami, revela que, apesar de útil para conceitos gerais, a ferramenta ainda não é confiável para informações sobre terapias mais recentes.

remédios
Imagem: Pixabay

Para o estudo, os pesquisadores submeteram dez perguntas ao ChatGPT: cinco de natureza geral, como efeitos colaterais da quimioterapia, e cinco sobre terapias mais específicas, como o uso de inibidores de BCL-2, um tipo de medicamento em fase de estudos.

As respostas foram avaliadas anonimamente por quatro hematologistas e oncologistas em uma escala de 1 a 5.

O resultado mostrou um desempenho moderado do chatbot. Em perguntas gerais, o ChatGPT obteve uma média de 3,38 pontos, considerada pelos avaliadores como “razoável, mas incompleta”.

Em questões sobre terapias mais recentes, a média caiu para 3,06 pontos. Nenhuma das respostas analisadas recebeu a nota máxima de 5.

Os autores do estudo concluíram que a supervisão médica é fundamental para verificar informações geradas por inteligências artificiais antes de serem utilizadas por pacientes.

Justin Taylor, líder da pesquisa, alerta os pacientes a manterem um “ceticismo necessário” ao buscar informações sobre tipos específicos de câncer e tratamentos.

Segundo ele, chatbots não são capazes de personalizar recomendações ou discutir as nuances de uma doença como um especialista pode fazer durante uma consulta.

Uma das limitações apontadas no estudo é o fato de ter sido utilizada a versão 3.5 do ChatGPT, cujo treinamento foi realizado com dados até 2021.

Isso significa que descobertas e tratamentos médicos lançados após essa data não foram incluídos nas respostas.

Apesar disso, Taylor destaca que, mesmo com versões mais recentes, a mensagem principal permanece a mesma: a IA pode ser um recurso de apoio, mas não substitui a orientação de um profissional de saúde.

A pesquisa, no entanto, também aponta o potencial da tecnologia. Os autores sugerem que chatbots podem auxiliar pacientes a se prepararem para consultas, formularem perguntas mais pertinentes e até encontrarem fontes confiáveis de informação.

A própria Universidade de Miami já investe em cursos sobre a ética da IA na medicina e em sistemas que usam a tecnologia para diagnóstico de tumores cerebrais e previsão de risco em mieloma múltiplo, o que demonstra a aposta no avanço e na aplicação responsável dessas ferramentas no setor de saúde.

Fonte: G1



Comentários