O futuro da perícia e os limites da inteligência artificial
Por Caroline Daitx
A inteligência artificial (IA) passou, em poucos anos, de ferramenta experimental a componente estrutural dos sistemas de saúde. Nas imagens diagnósticas, algoritmos de deep learning já descrevem achados em radiografias com precisão comparável à de especialistas, economizando minutos preciosos por exame; redes treinadas em traçados de eletrocardiograma começam a prever risco de doenças metabólicas muitos anos antes dos primeiros sintomas. Na esfera administrativa, modelos de linguagem natural redigem notas pós-operatórias mais consistentes que as escritas manualmente e reduzem o tempo gasto com prontuários. Plataformas de descoberta de fármacos, impulsionadas pelo avanço do AlphaFold, prometem encurtar sensivelmente o ciclo de pesquisa, embora revistas de referência insistam na necessidade de validação externa e explicabilidade antes de quaisquer liberações regulatórias.
Quatro obstáculos permanecem centrais: dados enviesados que podem gerar discriminação, opacidade algorítmica que dificulta contestação de decisões, problemas de integração com sistemas hospitalares legados e zonas cinzentas de responsabilidade civil quando um algoritmo falha.
No campo pericial médico-legal — que abrange perícias criminais, cíveis, securitárias e previdenciárias — a pesquisa em IA segue em frentes ainda menores em comparação com a medicina em geral. A primeira envolve aquisição e análise de evidências: visão computacional em tomografias pós-mortem para detectar fraturas ou estimar intervalo post-mortem; machine learning em antropologia digital para prever sexo, idade e ancestralidade a partir de crânios ou ossos; e processamento de linguagem natural para extrair, de prontuários volumosos, informações que possam esclarecer o nexo causal. A segunda frente busca automatizar fluxos e relatórios por meio de geradores de minutas de laudo e sistemas de jurimetria capazes de estimar tempos de tramitação ou risco de impugnação. A terceira apoia-se em plataformas de teleperícia que permitem a participação remota de especialistas, atualmente dentro dos limites recém-definidos pela Resolução CFM 2.430/2025 — norma que exige presença física do perito quando há quantificação de dano ou exame de capacidade atual e que reafirma a responsabilidade personalíssima pelo laudo, mesmo quando ferramentas de IA são empregadas.
As vantagens observadas até agora incluem maior velocidade na triagem de grandes volumes documentais, padronização de descrições e detecção de padrões sutis que poderiam escapar à análise humana. Porém, as mesmas limitações vistas na prática clínica se agravam no ambiente forense. Bases de dados são fragmentadas entre jurisdições, faltam protocolos unificados de digitalização, e algoritmos podem “alucinar” respostas ou reproduzir vieses de treinamento, gerando conclusões que, embora bem estruturadas, não se sustentam tecnicamente. Além disso, a cadeia de custódia digital exige rastreamento rigoroso de versões e metadados, pois qualquer perda de integridade compromete o valor probatório.
Diante desse quadro, especialistas convergem em três recomendações: ampliar a padronização e o compartilhamento de bases periciais para reduzir vieses; investir em ferramentas de explicabilidade que permitam ao juiz — e às partes — entender o raciocínio algorítmico; e capacitar peritos, desenvolvedores e operadores do Direito para que reconheçam tanto o potencial quanto os limites da tecnologia. Enquanto esses requisitos não estiverem consolidados, a IA deve ser tratada como apoio especializado, capaz de aumentar a eficiência e a coerência dos laudos, mas jamais como substituta do juízo crítico humano que sustenta a decisão pericial.
*Caroline Daitx é médica especialista em medicina legal e perícia médica.