Por que hospitais falham ao desenvolver soluções de IA
Por Mariana Gaspers
Apesar do avanço da digitalização hospitalar no Brasil, a maior parte das instituições ainda não consegue transformar dados clínicos em decisões assistenciais no tempo necessário para alterar desfechos. Isso ocorre porque a informação, mesmo disponível, não chega de forma contextualizada, acionável e integrada ao fluxo de decisão do profissional de saúde no momento em que a conduta precisa ser tomada, o que limita qualquer impacto clínico relevante. E na saúde, falhas de integração, atrasos decisórios ou erros de interpretação afetam eficiência operacional e financeira, e ainda podem resultar em agravamento clínico e aumento de mortalidade. Nos últimos anos, hospitais investiram em prontuários eletrônicos, sistemas de imagem, data lakes e equipes internas de tecnologia, mas continuam lidando com decisões tardias, desperdício assistencial e riscos clínicos que só se tornam visíveis quando o evento adverso já ocorreu. Entendo que o problema não está na ausência de dados, mas na incapacidade de convertê-los em ação clínica operacional.
Um levantamento publicado em 2025, pela Anahp, mostrou que mais de 80% dos hospitais privados brasileiros já utilizam algum tipo de solução de inteligência artificial, mas 74% afirmam não se sentir preparados para lidar com o impacto real da tecnologia na rotina assistencial. A discrepância indica que a adoção de IA tem ocorrido mais como investimento em tecnologia do que como transformação efetiva dos processos assistenciais, o que limita seu impacto na tomada de decisão clínica cotidiana. Logo, a presença de IA nos hospitais, por si só, não se traduz automaticamente em uso consistente na prática clínica diária.
Uma das razões centrais para esse descompasso está na tentativa recorrente de desenvolver soluções internas de IA sem maturidade organizacional suficiente. Hospitais que optam por construir tecnologia própria costumam subestimar a complexidade de manter equipes altamente especializadas, integrar dados clínicos heterogêneos e sustentar governança contínua. Analisando o tema com base na rotina do setor mais estimativas de mercado, um time mínimo, com engenheiro de dados, cientista de dados sênior, engenheiro de machine learning e especialista clínico, ultrapassa facilmente R$ 2 milhões por ano em custos diretos, isso sem considerar infraestrutura em nuvem, licenças, treinamento e rotatividade profissional. Custo relativamente alto.
Somado a questão financeira, mesmo quando esses times conseguem entregar modelos tecnicamente funcionais, a maioria dos projetos trava na transição entre prova de conceito e operação real. As falhas em governança de dados, integração aos fluxos clínicos e definição clara de responsabilidade assistencial estão entre os principais fatores que levam projetos de IA em saúde a não escalar, mesmo após bons resultados iniciais em ambiente controlado.
A dificuldade se intensifica porque a maior parte dos dados clínicos relevantes não está estruturada. Estimo que 80% das informações assistenciais permanecem em textos livres, laudos narrativos e evoluções médicas, o que exige capacidade técnica de leitura, além de entendimento clínico para interpretação contextual. Quando modelos geram alertas sem alinhamento com a jornada real do paciente, a consequência prática costuma ser a desconsideração desses alertas pela equipe assistencial, ampliando o risco de falhas que não são detectadas em tempo hábil.
Evidências internacionais reforçam esse ponto. Sistemas de IA utilizados para prever deterioração clínica deixaram de identificar aproximadamente dois terços dos casos reais quando aplicados fora do ambiente de teste, principalmente por ausência de contexto clínico adequado e integração com processos assistenciais existentes. O dado ajuda a explicar por que muitos hospitais acumulam modelos promissores que não alteram condutas médicas nem reduzem eventos adversos.
Entendo que esse cenário não é exclusivo da saúde, mas nela o impacto é mais sensível. Isso ocorre porque decisões clínicas são tomadas sob pressão de tempo, com informação incompleta e alto grau de incerteza, e qualquer falha de suporte decisório afeta diretamente segurança do paciente, qualidade assistencial e responsabilidade institucional. Uma pesquisa do MIT, divulgada no ano passado, apontou que até 95% das implementações corporativas de IA generativa não conseguiram gerar impacto mensurável em resultado financeiro ou operacional, principalmente por falhas de integração e governança. Assim, devemos nos atentar que, em hospitais, onde decisões envolvem risco assistencial direto, essas limitações têm consequências mais graves. E isso, por si, já deveria ser relevante ao considerar desenvolver soluções próprias de IA.
Olhando para isso, acredito que a decisão entre desenvolver tecnologia internamente ou adotar soluções maduras já em operação precisa ser analisada sob critérios objetivos. Projetos internos tendem a exigir de 12 a 24 meses até alcançar algum grau de maturidade clínica, enquanto soluções já validadas conseguem operar em semanas, com métricas claras de impacto assistencial e financeiro. A diferença não está apenas no tempo de implementação, mas no acúmulo de aprendizado clínico incorporado ao produto ao longo de anos, algo que dificilmente se constrói do zero dentro de uma única instituição.
Experiências bem-sucedidas mostram que soluções desenvolvidas a partir da prática assistencial acumulam conhecimento operacional que vai além do algoritmo. Elas incorporam ajustes contínuos, validação clínica, adaptação a fluxos reais e mecanismos de governança que reduzem riscos jurídicos e assistenciais. Esse histórico influencia diretamente a confiabilidade do sistema no dia a dia, um fator decisivo para adoção sustentada pelas equipes clínicas.
Vejo que o debate sobre inteligência artificial em hospitais ainda costuma ser tratado como uma escolha tecnológica, quando, na prática, trata-se de uma decisão organizacional e assistencial. A tecnologia funciona como meio, não como fim, e o impacto surge quando dados são convertidos em decisões contextualizadas, acionáveis e incorporadas aos processos clínicos existentes.
Então, a experiência sugere que o erro recorrente não está em adotar IA, mas em tratá-la como um software genérico. Na saúde, inteligência artificial depende de processo, governança e maturidade clínica acumulada. Quando instituições optam por concentrar esforços prolongados em estruturas internas que ainda estão aprendendo, acabam assumindo custos e riscos que poderiam estar sendo direcionados à gestão assistencial e à eficiência operacional. Ignorar essa premissa tem gerado custos elevados, atrasos operacionais e oportunidades perdidas de reduzir riscos assistenciais que permanecem invisíveis até o momento em que se tornam irreversíveis.
*Mariana Gaspers é COO da Neuralmed.

