Entre algoritmos e decisões: o humano no circuito
Por Eduardo Cordioli
A inteligência artificial deixou de ser promessa futurista para se tornar infraestrutura invisível da saúde contemporânea. O desafio migrou do tecnológico para o cognitivo: entender o que significa exercer inteligência humana quando as máquinas também aprendem.
Durante anos, confundimos transformação digital com informatização. Substituímos papéis por telas, criamos fluxos automatizados e celebramos o avanço. Foi necessário, sim — mas também representou um afastamento gradual do que sustenta o cuidado: a presença humana. A IA inaugura outra etapa, a da potencialização digital. Potencializar é verbo ambíguo: a mesma tecnologia que multiplica acertos amplifica erros. O resultado depende menos do algoritmo do que da consciência de quem o opera.
Considere a triagem automatizada em emergências. O sistema processa sinais vitais, histórico clínico e queixas em segundos, hierarquizando prioridades. Bem supervisionado, salva vidas. Sem revisão crítica, reproduz vieses — estudos documentam como algoritmos subestimam sintomas graves em determinados grupos demográficos, perpetuando disparidades no acesso ao cuidado. A fronteira entre benefício e dano não mora no código, mas na atenção de quem interpreta seus resultados.
É aqui que o conceito de human in the loop se torna essencial. Não se trata apenas de controle, mas de arquitetura de responsabilidade: manter o humano no circuito decisório, garantir que interpretação e julgamento permaneçam humanos mesmo quando a execução é automática. Artigo recente na Nature Medicine mostrou que a confiabilidade dos sistemas de IA depende menos da sofisticação técnica do que da qualidade da interação e supervisão profissional. Pesquisadores da Universidade da Pensilvânia alertam para o risco inverso: o human in the loop meramente formal, em que o profissional vira carimbo burocrático e perde progressivamente autonomia crítica — fenômeno já batizado de deskilling clínico.
Há precedentes instrutivos. Quando sistemas de pilotagem automática se sofisticaram demais, pilotos perderam competências manuais vitais — realidade exposta em acidentes como o do voo Air France 447. Na saúde, o paralelo incomoda: radiologistas que delegam totalmente a leitura preliminar podem perder acuidade diagnóstica construída em anos; enfermeiros que confiam cegamente em alertas automatizados deixam de notar sinais sutis de deterioração. Automação não pode significar atrofia.
Evitar esse caminho exige nova competência: literacia digital. Técnica, mas também ética. Não basta ter especialistas por perto; é preciso compreender o suficiente para deliberar com clareza sobre o que se adota e o que se delega. Estudo do Journal of Medical Internet Research revelou que menos de 40% dos gestores hospitalares se consideram capazes de interpretar métricas de desempenho algorítmico — lacuna abissal entre decisão e entendimento. Pesquisas na Frontiers in Digital Health confirmam: a literacia digital permanece entre as principais barreiras à integração segura da IA em ambientes clínicos.
Construir essa competência demanda investimento deliberado. Incluir nos currículos de saúde não só o manejo de ferramentas, mas a compreensão dos fundamentos: como um modelo é treinado, o que distingue acurácia de precisão, por que algoritmos performam bem em testes e falham na realidade. Criar espaços de educação continuada onde profissionais possam questionar e testar sistemas antes de adotá-los. Formar lideranças capazes de fazer as perguntas certas — não “funciona?”, mas “para quem funciona? sob que condições? com quais riscos ocultos?”
Literacia digital é, antes de tudo, nova forma de ler o mundo. Reconhecer que todo algoritmo carrega intenção, todo dado resulta de escolha, toda automação traduz valores. Liderar nesse contexto é filtrar entre o possível e o admissível, entre eficiência e ética, entre dado bruto e significado humano.
Essa postura exige coragem institucional. Recusar soluções que prometem ganhos imediatos, mas comprometem equidade estrutural. Praticar transparência sobre limitações — admitir quando sistemas erram, quando suas recomendações devem ser ignoradas, quando a intuição clínica prevalece. E cultivar culturas organizacionais onde questionar a máquina não seja tratado como resistência ao progresso, mas como exercício de responsabilidade.
A inteligência artificial não ameaça o humano; ela o revela. Nos obriga a reexaminar o que é insubstituível: discernimento, empatia, capacidade de atribuir sentido. Modelos aprendem padrões, não compreendem consequências. Calculam, não decidem. Nesse intervalo reside o que ainda nos diferencia — e também a oportunidade.
IA bem integrada não substitui o clínico; liberta-o das tarefas mecânicas para que invista tempo naquilo que só humanos fazem: ouvir histórias de vida entrelaçadas à doença, reconhecer sofrimentos que não cabem em protocolos, decidir sob incerteza irredutível. A pergunta não é se devemos usar inteligência artificial na saúde, mas como fazê-lo preservando — e ampliando — aquilo que nos torna plenamente humanos no cuidado.
O futuro da saúde não será definido pela velocidade dos algoritmos, mas pela lucidez de quem os conduz. Manter o humano no circuito e cultivar literacia digital não é escolha técnica. É imperativo civilizatório.
*Eduardo Cordioli é diretor Técnico de Obstetrícia do Grupo Santa Joana.
