Reflexões penais sobre o uso da IA na medicina diagnóstica
Por Leandro Sarcedo
No último mês, causou grande repercussão, inclusive na imprensa brasileira, a entrevista concedida por Bill Gates ao programa de Jimmy Fallon, no “The Tonight Show”. Nela, o fundador da Microsoft diz que, num prazo máximo de 10 anos, a inteligência artificial (IA) irá suprir a escassez de médicos ou mesmo substituí-los no exercício profissional, além de outras previsões nada alvissareiras para o futuro da espécie humana, como sua substituição de professores nas atividades de ensino.
Em relação à medicina diagnóstica e sua atual prática eminentemente empresarial, a implementação e uso de algoritmos de IA para realização da maior parte das atividades antes desenvolvidas por profissionais humanos (médicos, biomédicos, químicos etc.) não se relacionam a predições do futuro, mas à realidade presente no cotidiano de laboratórios públicos e privados de todos os portes.
A capacidade das tecnologias baseadas em IA e na chamada deep learning (capacidade do próprio software de desenvolver sozinho outras aprendizagens) possibilita a ampliação exponencial da quantidade de exames que podem ser realizados. Também aumenta a velocidade de sua análise sem comprometer a precisão média alcançada por especialistas humanos, que fazem o mesmo trabalho em quantidade e velocidade significativamente menores.
Contudo, esse enorme avanço da tecnologia empregada no exercício das ciências médicas e de sua aplicação prática no cotidiano dos pacientes exige um olhar atento das ciências jurídicas. Elas devem enfrentar questões emergentes sobre responsabilidade e regulamentação, assunto bem pouco tratado pelos “tubarões” das empresas tecnológicas em suas entrevistas e manifestações públicas.
Quando busca um laboratório para realizar os exames que lhe foram prescritos por seu médico de confiança, o paciente acaba contratando uma espécie de “pacote” de serviços, sem que tenha clareza sobre isso. São profissionais de formações diversas que irão interagir com ele até a conclusão do serviço contratado, na forma de resultado dos exames realizados, necessariamente assinado por um profissional humano da medicina.
Ocorre que, em grande parte das vezes, a assinatura do médico nos resultados de exames entregues aos pacientes é meramente instrumental, já que o profissional é o responsável técnico por aquela área dentro do laboratório. E isso sem que haja possibilidade física de revisar, de fato, os resultados aferidos, produzidos em quantidade e velocidade muito maiores do que os humanos são capazes de acompanhar.
Ocorre que esses profissionais da medicina, quando têm suas assinaturas — ainda que meramente instrumentais — inseridas nos resultados de exames entregues aos pacientes, acabam assumindo responsabilidades em relação a eventuais erros cometidos dentro de uma estrutura complexa de atuação, não só de outros profissionais humanos, mas também de algoritmos de IA.
Além das responsabilidades disciplinares perante os órgãos de controle e fiscalização da medicina (CFM e CRMs), os profissionais atuantes no exercício da medicina diagnóstica assumem responsabilidades contratuais perante os pacientes. O objetivo é preservá-los da ocorrência de eventos danosos, o que, na seara penal, significa que assumem a posição de garantidores do correto cumprimento normativo, nos termos do artigo 13, § 2º, b do Código Penal.
A verdade é que, ainda que a automação na prestação dos serviços médicos esteja avançando aceleradamente, a questão da atribuição de responsabilidades diante de possíveis erros gerados por sistemas de IA permanece pouco debatida. É preciso entender o que acontece em situações nas quais o diagnóstico equivocado resulta em danos graves à saúde ou mesmo na morte do paciente.
Num modelo no qual a IA desempenha papel central na avaliação diagnóstica, surgem enormes preocupações sobre a incapacidade do ordenamento jurídico vigente de dar respostas à sociedade e atribuir responsabilidade aos culpados, principalmente na esfera do direito penal, regido pela responsabilidade subjetiva (por culpa ou dolo) e não pela objetiva, própria do direito civil.
Além disso, para calibrar o funcionamento dos algoritmos, engenheiros e programadores ajustam parâmetros técnicos de imputação de dados e de obtenção de resultados, buscando eliminar vieses e baixar as possibilidades de erros. Participam, portanto, juntamento com médicos, biomédicos e outros profissionais da saúde, da regulagem dos softwares que serão os protagonistas da produção dos resultados de exames a serem entregues aos pacientes.
Por essas razões, laboratórios precisam estabelecer diretrizes claras para assegurar o cumprimento das exigências legais e dos padrões de compliance aplicados aos sistemas de diagnósticos por IA que utilizam. Somente medidas sérias de prevenção de riscos poderão evitar interpretações arbitrárias no campo da responsabilidade penal e garantir atendimento seguro e eficaz aos pacientes.
É inegável que os programas de diagnóstico baseados em IA, desenvolvidos nos principais centros de pesquisa tecnológica do mundo, são altamente sofisticados e verdadeiras maravilhas que não cansam de surpreender a humanidade a cada dia que passa. No entanto, há evidentes lacunas de informações a respeito de sua autoria e supervisão. Sem falar nas chamadas zonas opacas ou cinzentas de funcionamento, comuns em todos os sistemas de IA, mas inaceitáveis quando se trata de softwares destinados a tratar da saúde humana, área em que pesam a gravidade e a irreversibilidade das consequências que possíveis “alucinações algorítmicas” podem causar.
*Leandro Sarcedo é Sócio na Massud, Sarcedo e Andrade Sociedade de Advocacia, presidente da Comissão de Estudos de Direito Médico do Instituto dos Advogados de São Paulo (IASP) e professor no curso de Mestrado em Direito Médico da UNISA.