A Explicabilidade da IA para o Consentimento do Paciente
Por Gisele Machado Figueiredo Boselli
 No cenário global atual, em que novas ferramentas de Inteligência Artificial surgem todos os dias, a necessidade em se estabelecer parâmetros de confiabilidade e segurança para essas tecnologias torna-se essencial. Apesar de parecer uma preocupação nova, já há alguns anos pesquisadores e cientistas de dados atuantes nesse campo vêm alertando sobre a urgência em se criar não apenas diretrizes globais que assegurem o desenvolvimento responsável dessas ferramentas, mas também leis que possam efetivamente prevenir ou mitigar os riscos que lhes são intrínsecos.
No cenário global atual, em que novas ferramentas de Inteligência Artificial surgem todos os dias, a necessidade em se estabelecer parâmetros de confiabilidade e segurança para essas tecnologias torna-se essencial. Apesar de parecer uma preocupação nova, já há alguns anos pesquisadores e cientistas de dados atuantes nesse campo vêm alertando sobre a urgência em se criar não apenas diretrizes globais que assegurem o desenvolvimento responsável dessas ferramentas, mas também leis que possam efetivamente prevenir ou mitigar os riscos que lhes são intrínsecos.
Estamos caminhando nessa direção. O regulamento europeu, denominado “IA Act”, entrou em vigor em agosto de 2024, alocando a ‘explicabilidade’ no centro da preocupação em relação aos sistemas de IA, especialmente àqueles que envolvem riscos, e exigindo que as decisões realizadas ou recomendadas pela tecnologia sejam explicadas de maneira clara e acessível. Por sua vez, o projeto de lei brasileiro, que está atualmente em tramitação no Congresso Nacional, também define a explicabilidade como um dos princípios para o desenvolvimento da IA confiável e segura .
O conceito de explicabilidade, que está abrangido pela ideia de transparência, exige que ela não se limite à compreensão técnica pelos desenvolvedores ou cientistas de dados, mas também se estenda aos sujeitos que vão operá-las e, eventualmente, aos destinatários finais da tecnologia. Ao considerar o uso da IA na saúde como ferramenta auxiliar nos diagnósticos médicos ou na definição de terapêuticas mais complexas, é essencial que o profissional que fará seu uso seja capaz de questionar apropriadamente sua funcionalidade e compreender suas potencialidades e limitações.
O usuário deve ter conhecimento sobre as probabilidades de viés algorítmico, que ocorre quando o modelo não é desenvolvido e testado com dados diversos e abrangentes, podendo amplificar preconceitos existentes e gerar decisões que prejudicam minorias ou pacientes com características específicas, como etnia ou condição socioeconômica. Nesses casos, a tecnologia pode levar a diagnósticos incorretos ou tratamentos inadequados, ainda que para um menor número de pacientes.
Para mitigar esses riscos, é essencial que os responsáveis pelos projetos de IA sigam diretrizes éticas e analisem cuidadosamente os modelos matemáticos e as bases de dados utilizadas, garantindo a diversidade e qualidade dos ‘inputs’. Embora seja difícil eliminar completamente os vieses, é possível minimizá-los significativamente por meio de boas práticas na escolha e na análise dos dados. Dessa forma, as decisões automatizadas poderão ser mais justas e equânimes, principalmente em cenários que impactem diretamente a saúde.
Por outro lado, quando não for possível utilizar bases de dados variadas, essa limitação deve ser apresentada de forma clara e acessível aos envolvidos no projeto, bem como aos compradores, operadores e usuários finais. Dessa forma, o médico que se utiliza de uma ferramenta com IA estando ciente de suas potencialidades e restrições, também poderá esclarecer adequadamente o paciente sobre os riscos envolvidos, permitindo-lhe consentir ou negar sua utilização.
O consentimento livre e esclarecido, que é crucial na nova dinâmica da relação médico-paciente, depende de informação clara e acessível. A ausência ou omissão de dados poderá configurar violação de deveres éticos e legais do profissional e repercutir em responsabilização, tanto no âmbito administrativo – junto ao conselho de classe – como nas esferas cível e criminal . Pode-se afirmar, com base em recentes estudos, que o aumento da judicialização na saúde reflete em parte essa nova postura do paciente que não aceita mais ser excluído das decisões em relação a sua saúde.
Isto posto, surge uma nova angústia para o médico, que se depara com mais um encargo: a obrigação de estar atualizado em relação às novas tecnologias médicas, em um momento em que lhe falta tempo inclusive para acessar e estudar toda a produção científica de sua área de especialização. Nesse sentido, o professor Genival Veloso de França, em sua paradigmática obra “Direito Médico” , reflete: “as pesadas obrigações jurídicas que surgem da evolução contemporânea são a inevitável contrapartida dos notáveis progressos da Medicina moderna”.
A boa notícia é que a lei, quando promulgada, pode vir em auxílio dos profissionais – usuários das novas tecnologias-, estabelecendo a obrigação informacional ao desenvolvedor dos dispositivos. O artigo 20, V, do referido PL 2.238/23, ao tratar dos sistemas classificados como de alto risco , prevê a “explicabilidade dos resultados dos sistemas de inteligência artificial e de medidas para disponibilizar aos operadores e potenciais impactados informações gerais sobre o funcionamento do modelo de inteligência artificial empregado, explicitando a logica e os critérios relevantes para a produção de resultados”.
Esse respaldo legal poderá apoiar o médico na seleção da melhor ferramenta e ajudá-lo a compreender como ela poderá impactar a assistência ao seu paciente, sem que, contudo, o profissional seja eximido da responsabilidade pelo seu uso. O médico mantém sua autonomia para indicar o procedimento que entender mais adequado, observando as práticas cientificamente reconhecidas, respeitada a legislação vigente e considerando o direito de autonomia do paciente.
Portanto, ao considerar os desafios e as oportunidades que a IA apresenta, torna-se imperativo que o debate sobre sua transparência e confiabilidade esteja no centro das discussões, direcionando as leis, as políticas públicas, as práticas empresariais e, principalmente, assegurando que o desenvolvimento da IA esteja em sintonia com os valores éticos que buscamos preservar, especialmente quando inserida no ecossistema da saúde. É preciso equilíbrio entre a inovação tecnológica e a proteção dos direitos fundamentais dos cidadãos, de modo a garantir que o progresso seja centrado no bem comum.
*Gisele Machado Figueiredo Boselli é Advogada. Especialista em Direito da Economia e da Empresa pela FGV. Especialista em Direito Médico e da Saúde pela PUC-PR. Membro da Comissão Especial de Bioética e Biodireito da OAB-SP. Associada ao Instituto Miguel Kfouri Neto – Direito Médico e da Saúde.
 
								
