ChatGPT: ainda muito inseguro para uso na área de saúde
O ChatGPT está causando furor ao redor do mundo, mas há uma área-chave onde ele provavelmente não será utilizado tão cedo, ao menos em situações mais delicadas. Pesquisadores do Brigham and Women’s Hospital, um hospital escola da Harvard Medical School, descobriram que planos de tratamento de câncer gerados pelo chatbot da OpenAI continham muitos erros.
O resultado do trabalho desses pesquisadores foi publicado pela JAMA Oncology, revista editada pela American Medical Association e revela que quando solicitado a gerar planos de tratamento para casos de câncer, em um terço das ocasiões o chatbot gerava informações incorretas.
As recomendações do ChatGPT quase sempre são apresentadas de forma aparentemente correta e que fazem sentido, mas ao misturar informações incorretas e corretas tornam-se perigosas, como disse a médica Danielle Bitterman, uma das pesquisadoras responsáveis pelo estudo; ela disse também que até mesmo para um especialista é difícil analisar com segurança as recomendações geradas pelo chatbot.
O ChatGPT se tornou uma sensação quando foi lançado em novembro de 2022, alcançando 100 milhões de usuários ativos dois meses após sua entrada no ar; seu sucesso desencadeou uma corrida de investidores em busca de empresas que trabalhavam com inteligência artificial.
Também provocou um debate intenso sobre os impactos da inteligência artificial no longo prazo, especialmente quando pesquisa do Goldman Sachs apontou que seu uso poderia eliminar 300 milhões de empregos em todo o mundo.
Já se observa que não apenas o ChatGPT, mas outros modelos de inteligência artificial generativa estão propensos ao que vem sendo chamado de “alucinações”, ou seja, apresentam informações aparentemente confiáveis, mas enganosas ou totalmente incorretas. Ficou famoso o caso do Bard, rival do ChatGPT, que ao responder de forma incorreta a uma pergunta sobre o telescópio espacial James Webb, acabou gerando uma queda de US$ 120 bilhões no valor das ações do Google, empresa que o desenvolveu.
Esforços para integrar a inteligência artificial à área da saúde estão em andamento; segundo o portal Business Insider, estudos recentes concluíram que o uso da inteligência artificial no processo de triagem de câncer de mama é seguro, podendo liberar radiologistas para outros trabalhos.
Dado esse cenário, é improvável que ferramentas como o Bard e o GPT venham a ser utilizados intensamente em situações críticas, ao menos tão cedo, devendo-se registrar que a OpenAI, criadora do ChatGPT, diz que seus produtos não foram projetados para fornecer informações médicas e não devem ser usados para “serviços de diagnóstico ou tratamento para condições médicas graves”.
*Vivaldo José Breternitz, Doutor em Ciências pela Universidade de São Paulo, é professor da FATEC SP, consultor e diretor do Fórum Brasileiro de Internet das Coisas.