IA: profissionais precisam estar atentos aos riscos jurídicos
Por Silvia Waltrick
A Inteligência Artificial (IA) está transformando a medicina, trazendo diagnósticos mais rápidos, tratamentos personalizados e eficiência operacional para hospitais e clínicas. No entanto, seu uso não está livre de riscos jurídicos. Profissionais e instituições de saúde devem adotar medidas preventivas para aproveitar os benefícios da tecnologia sem aumentar a exposição a processos judiciais.
As chamadas IAs generativas já vêm sendo usadas em diversas circunstâncias prometendo (e conseguindo) reduzir o trabalho técnico com eficiência, especialmente pela capacidade de analisar e depurar um grande volume de dados. Na saúde, existem as IAs generativas médicas, cujo banco de dados é composto por informações específicas de saúde, resultando num auxílio mais assertivo. Elas vêm auxiliando, por exemplo, em setores de triagem, diagnóstico, prognóstico e tratamento de doenças, além de atuar como um assistente em tarefas corriqueiras como preenchimento de documentos médicos, marketing e atendimento ao público.
A pergunta que fica é: dá pra confiar na ferramenta? E se a IA falhar? Evidentemente que, por lidar com a saúde humana, uma falha nesse instrumento pode acarretar consequências graves que podem demandar responsabilidades. E é aí que entra a principal implicação de todos os envolvidos: médicos, clínicas e hospitais e/ou desenvolvedores.
Ainda que o marco regulatório da IA (PL n. 2338/23) esteja em tramitação no Brasil, existem normas atuais capazes de estabelecer responsabilidades civis, éticas e penais.
O médico, usuário final dessa tecnologia, precisa observar basicamente dois princípios: o respeito ao sigilo dos dados dos pacientes e a sua responsabilidade pela conduta orientada por IA. Esse profissional permanece, pois, sendo o responsável pelas decisões clínicas, devendo validar ou refutar os resultados gerados por algoritmos, mantendo um diálogo esclarecido e consentido com o paciente. A falta desses cuidados pode acarretar danos, que serão investigados e punidos na esfera cível, criminal e/ou ética. Em última análise, a ferramenta de IA deve ser usada sempre sob um juízo crítico.
Clínicas e hospitais também precisam agir com cautela. A escolha de softwares regulamentados, a capacitação das equipes e a documentação detalhada das decisões assistidas por IA são essenciais para evitar responsabilização. Instituições que implementam tecnologias não certificadas ou falham na supervisão adequada, podem responder por danos sob a ótica do Código de Defesa do Consumidor.
Já os desenvolvedores de IA enfrentam desafios regulatórios, como a necessidade de comprovar a segurança e eficácia de seus sistemas perante a ANVISA, além de garantir conformidade com a LGPD. Algoritmos opacos ou com vieses não detectados podem levar a erros médicos e, consequentemente, a ações judiciais contra as empresas criadoras, solidariamente responsáveis.
Para reduzir riscos, é fundamental adotar soluções com respaldo científico, manter registros claros de todas as interações mediadas por IA e realizar auditorias periódicas nos sistemas. O equilíbrio entre inovação e compliance jurídico permitirá que a medicina aproveite todo o potencial da inteligência artificial, que promete revolucionar o setor, sem descuidar da segurança do paciente ou dos profissionais e instituições de saúde envolvidos.
A IA veio para ficar e seu uso responsável é o melhor caminho para evitar litígios enquanto se promove uma saúde mais precisa, com maior qualidade e acessível.
*Silvia Waltrick é Advogada, tem MBA em gestão de empresas, Mestrado em Direito Público, Especialista em Direito da Medicina/UC-Portugal e Coordenadora da equipe de Direito Médico do escritório Cavallazzi, Andrey, Restanho e Araújo.