IA e erro médico: chance de eliminar ou risco de agravar?
Por Fabíola Meira de Almeida Breseghello
A incorporação da Inteligência Artificial (IA) à prática médica é instrumento capaz de ampliar a precisão diagnóstica, aumentar a eficiência assistencial, entre outros. Sistemas de apoio à decisão clínica, leitura automatizada de exames já integram a rotina de diversas especialidades. Todavia, sob a ótica jurídica e regulatória brasileira, o uso da IA não se presta a mitigar ou excluir a responsabilidade profissional, nem representa, por si só, um fator de impedimento para o erro médico. Ao contrário, pode redefinir — e até agravar — os critérios de responsabilização, caso seja utilizada sem governança, protocolos e transparência.
Em relação ao tema, o Conselho Federal de Medicina (CFM) está atualmente elaborando uma resolução específica para regulamentar o uso da IA na área médica. A ausência dessa norma destaca a importância de que os profissionais atuem com cautela, principalmente diante do rápido progresso tecnológico, sendo inadequado considerar esse cenário como uma permissão irrestrita.
Não obstante a ausência de resolução por parte do CFM, o Conselho Regional de Medicina do Estado do Rio Grande do Sul (CREMERS) publicou a Resolução nº SEI-6, de 12 de março de 2025 , resolução esta que foi revogada pelo CFM sob argumento de que matéria é de abrangência nacional e que sua regulamentação é competência exclusiva do Conselho Federal de Medicina. Em síntese, a Resolução revogada era clara ao estabelecer diretrizes voltadas à autonomia do médico, à transparência perante o paciente, à segurança de dados pessoais e à responsabilidade profissional.
A ausência de norma pelo CFM, no entanto, não elimina a responsabilidade, mas desloca o debate para o campo dos princípios gerais, do Código de Ética Médica, do Código de Defesa do Consumidor e do Código Civil e LGPD, especialmente no que se refere ao dever de informação, à vulnerabilidade do paciente e à apuração de culpa.
Sob a ótica do Código de Defesa do Consumidor, a relação médico-paciente é, como regra, reconhecida como relação de consumo, na qual o paciente figura como parte vulnerável e muitas vezes hipossuficiente, especialmente sob o aspecto técnico e informacional. O art. 6º do CDC assegura ao consumidor o direito à informação adequada e clara, bem como à facilitação da defesa de seus direitos, inclusive com a possibilidade de inversão do ônus da prova. Na linha do art. 951, CC, o art. 14 do CDC prevê a responsabilidade subjetiva do profissional liberal, condicionada à comprovação de culpa — mas sem afastar, obviamente, a inversão probatória quando presentes a verossimilhança das alegações ou a hipossuficiência do paciente.
Não se pode perder de vista o disposto no art. 927, parágrafo único, do Código Civil, que admite a responsabilidade objetiva quando a atividade, por sua natureza, implicar risco para terceiros. Em contextos de alta complexidade tecnológica, com uso intensivo de IA e elevada assimetria informacional, cresce o debate sobre a caracterização de determinados atos médicos como atividades de risco acrescido, sobretudo quando inexistem protocolos institucionais claros ou governança adequada.
Diante desse cenário, a caracterização — ou não — do erro médico na era da IA passa a depender de critérios robustos, tais como:
(i) o grau de autonomia real do médico;
(ii) a existência de protocolos institucionais e governança da tecnologia;
(iii) a rastreabilidade da decisão clínica;
(iv) a qualidade e robustez do prontuário;
(v) a transparência e o consentimento informado do paciente; e
(vi) a capacidade de justificar tecnicamente a decisão adotada.
Ainda, se há um ponto que, na prática contenciosa ampara defesas sólidas, é a rastreabilidade. Em casos tradicionais de responsabilidade civil médica, discute-se o que foi feito, quando foi feito e por qual razão de acordo com as melhores práticas e literatura. Com IA, soma-se um elemento indispensável: como o médico chegou à decisão diante de um algoritmo.
Na lógica do CDC, essa camada é ainda mais sensível porque o paciente é vulnerável e, frequentemente, hipossuficiente para compreender o funcionamento do sistema. A consequência jurídica é direta: ainda que a responsabilidade do profissional liberal seja subjetiva (art. 14, § 4º, CDC), a inversão do ônus da prova (art. 6º, VIII, CDC) passa a operar com maior intensidade quando o prontuário não permite reconstruir a racionalidade clínica.
Rastreabilidade não significa “explicar o algoritmo” — isso seria irrealista. Significa, sim, registrar elementos mínimos que evidenciem que houve supervisão humana efetiva e controle cognitivo da decisão. Em termos práticos, a documentação passa a exigir: (a) a indicação de que houve uso de IA; (b) o registro de concordância ou discordância do médico com a recomendação; (c) a justificativa clínica — ainda que sintética — dos fatores do caso concreto que conduziram à decisão final; e (d) a indicação de condutas de confirmação (ex.: segunda leitura, exames complementares, revisão humana, discussão multidisciplinar), quando pertinentes.
Esse cuidado tem reflexo direto na aferição de culpa, porque o debate passa a ser: houve prudência, diligência e validação crítica do suporte tecnológico? Quando a instituição utiliza IA sem protocolos internos claros, sem governança de logs, sem treinamento formal e sem padrão de registro, o risco jurídico migra do ato individual para uma falha de organização do serviço — terreno fértil para alegações de defeito na prestação e violação do dever de informar.
Em síntese, a rastreabilidade é a ponte entre tecnologia e responsabilidade: sem ela, a tecnologia, que deveria qualificar a assistência, pode se converter em fragilidade probatória.
É certo que a IA contribui para a melhoria da prática médica. Contudo, sem premissas institucionais, sem protocolos claros e sem supervisão humana efetiva, a tecnologia não reduz o risco jurídico — ela o amplia. O erro médico deixa de ser apenas uma falha técnica e passa a ser, sobretudo, uma falha de governança, informação e diligência, com relevantes impactos à luz do CDC e da responsabilidade civil.
*Fabíola Meira de Almeida Breseghello é Doutora pela PUC-SP e Sócia do Meira Breseghello Advogados.

