Erros da IA na Radiologia: como usá-la bem sem criar riscos
Por Osvaldo Landi
A Inteligência Artificial (IA) tem avançado de forma consistente e relevante no diagnóstico por imagem e já demonstra impacto positivo no fluxo assistencial, especialmente em cenários de urgência e emergência. Ferramentas capazes de identificar achados críticos em poucos segundos ajudam a priorizar casos graves e oferecem suporte relevante aos profissionais que precisam tomar decisões rápidas.
Esse avanço, no entanto, exige uma reflexão cuidadosa. É fundamental reconhecer que tecnologias sofisticadas não estão livres de limitações. Compreender onde e como a IA pode falhar é condição indispensável para que seu uso seja seguro, responsável e, de fato, benéfico ao paciente, que depende de precisão nos tratamentos.
A maior parte das soluções disponíveis comercialmente hoje funciona como uma IA estreita (narrow AI). São modelos de deep learning treinados para executar tarefas muito específicas, como, por exemplo, identificar sangramento intracraniano em exames de tomografia. Dentro desse escopo, o desempenho costuma ser elevado. Fora dele, a ferramenta não identificará outros achados de imagem que podem ser importantes para a conduta clínica.
Isso significa que, ao analisar um exame em busca de um acidente vascular cerebral, como no exemplo citado, a IA pode deixar de reconhecer um tumor, sinais de demência, atrofias ou outras alterações relevantes. Esse é um ponto central: muita das soluções baseadas em IA disponíveis comercialmente ainda não possuem uma visão clínica global, já que responde a problemas delimitados por quem desenvolve e gerencia a ferramenta, e não substitui a análise médica integral.
Por isso, a pergunta nunca é se a IA irá errar, mas quando e como esse erro irá ocorrer e se o sistema e os profissionais estarão preparados para identificá-lo. Mesmo sistemas com acurácia de 98% produzem falhas absolutas relevantes quando aplicados a milhares de exames por mês. Embora o impacto clínico desses casos seja limitado, eles ilustram algo inevitável: o erro existe e precisa ser monitorado.
Outro ponto crítico é a capacidade de generalização dos algoritmos. Uma solução desenvolvida e validada em centros de excelência internacionais pode apresentar perda de desempenho quando aplicada a populações diferentes, com outros protocolos ou equipamentos. Em determinados contextos, o modelo simplesmente deixa de funcionar como esperado. Isso ocorre porque a IA aprende padrões a partir dos dados que recebe, e esses padrões nem sempre se repetem em novos ambientes.
Por essa razão, a adoção segura passa, necessariamente, pela validação local. É preciso testar o sistema na população real que será atendida, garantindo que os resultados observados na prática correspondam aos dados apresentados nos estudos.
Há ainda o risco conhecido como viés de automação: a tendência humana de confiar excessivamente na tecnologia. No ambiente clínico, isso pode levar profissionais a assumirem que a recomendação da IA está sempre correta, reduzindo o senso crítico e abrindo espaço para decisões equivocadas. O treinamento adequado da equipe clínica é essencial, e a IA deve apoiar o julgamento médico, e não o substituir.
A literatura recente também destaca que o desempenho dos sistemas de IA médica pode variar de acordo com as características das populações analisadas. Estudos indicam que algoritmos treinados com bases de dados pouco diversas tendem a apresentar menor precisão quando aplicados a contextos clínicos diferentes daqueles utilizados em seu desenvolvimento. Essas limitações podem surgir em diversas etapas do ciclo da tecnologia, desde a coleta e rotulagem dos dados até a validação e a implementação na prática assistencial.
Já ocorreram relatos de variações de desempenho relacionadas a características físicas, demográficas ou clínicas específicas, bem como a modelos de risco que utilizam dados históricos como proxy de gravidade. Esses achados reforçam a importância de bases de dados representativas, validação contínua e monitoramento sistemático dos resultados, de modo a garantir maior consistência, segurança e equidade no uso da IA em saúde.
Quando essas variações não são identificadas e corrigidas, diagnósticos incorretos, triagens desiguais, recomendações inadequadas e perda de confiança podem ser algumas das consequências sofridas pela equipe clínica e por parte dos pacientes. Por isso, soluções robustas de governança, auditoria contínua e métricas específicas de equidade são requisitos básicos para o uso responsável da IA em saúde.
A integração da inteligência artificial à radiologia traz ganhos relevantes, mas também expõe riscos que não podem ser ignorados. Erros associados a bases de dados pouco representativas, ausência de validação contínua e falhas na integração ao fluxo clínico podem gerar vieses, falsos positivos ou omissões diagnósticas. Por isso, o uso seguro da IA depende menos do desempenho isolado do algoritmo e mais de governança, interoperabilidade, treinamento das equipes e monitoramento permanente dos resultados na prática assistencial.
O avanço da IA na radiologia é irreversível, mas seus efeitos serão definidos pela forma como a tecnologia é utilizada. Reconhecer limites, compreender como e por que os algoritmos erram e manter a supervisão médica são condições essenciais para que a inovação fortaleça a prática clínica, sem ampliar riscos ou desigualdades.
Nesse contexto de avanço tecnológico, a inteligência artificial é uma ferramenta de apoio relevante ao diagnóstico por imagem, contribuindo para ganho de eficiência, padronização e agilidade na análise dos exames. No entanto, a interpretação clínica permanece insubstituível. A avaliação do médico radiologista é fundamental para confirmar achados, correlacionar os resultados com o histórico e o quadro clínico do paciente e orientar a conduta adequada, um nível de julgamento, contextualização e responsabilidade que, até o momento, os algoritmos não conseguem oferecer.
*Osvaldo Landi é gerente Médico de Inovação & Dados da Fundação Instituto de Pesquisa e Estudo de Diagnóstico por Imagem (FIDI).

