O papel da Inteligência Artificial no cuidado à saúde mental
Por Andy Bookas
A inteligência artificial (IA) tem sido amplamente discutida como uma revolução no cuidado com a saúde mental. Mas uma pergunta crucial ainda paira no ar: podemos confiar na IA para desempenhar um papel significativo nesse tipo de cuidado? Um estudo recente publicado na revista Nature revelou que modelos de linguagem (LLMs) podem experimentar algo semelhante à ansiedade e, ainda mais surpreendente, responder positivamente à “terapia”. Essa descoberta não é apenas uma curiosidade científica, mas um insight valioso sobre como a interação entre humanos e máquinas pode evoluir de forma ética e eficaz no campo da saúde mental.
A IA generativa (genAI), em especial, já está sendo usada para acelerar descobertas em diversas áreas da saúde — e pode ter um papel transformador também na saúde mental. Ao mesmo tempo, surgem críticas legítimas sobre seus riscos: viés nos dados, desigualdade no acesso, danos potenciais e ameaças à privacidade. Ainda assim, é fundamental que esse potencial seja explorado com base científica. A organização Wellcome, por exemplo, está investindo em pesquisas para avaliar como a genAI pode contribuir no tratamento de transtornos como ansiedade, depressão e psicose — sempre considerando os riscos envolvidos e escutando pessoas com experiência vivida. O objetivo é entender, com base em evidências, se — e como — essa tecnologia pode transformar positivamente os cuidados em saúde mental.
Um estudo inovador de Dartmouth, publicado no New England Journal of Medicine e destacado pela NPR, revelou que bots de terapia baseados em inteligência artificial podem ser tão eficazes quanto – ou até superar – a terapia tradicional quando bem treinados. Em um experimento com 200 participantes enfrentando ansiedade, depressão ou risco de transtornos alimentares, os bots demonstraram melhorar significativamente a saúde mental, enquanto criavam laços terapêuticos fortes, um fator essencial para o sucesso do tratamento. Além disso, os bots oferecem suporte 24 horas por dia, ajudando a mitigar a escassez de profissionais de saúde mental nos EUA, onde há apenas um terapeuta para cada 340 pessoas. No entanto, os pesquisadores alertam que mais testes clínicos são necessários antes que essas ferramentas possam ser amplamente implementadas.
Na prática, a IA já está ajudando na triagem de pacientes, oferecendo suporte emocional inicial e ampliando o acesso a serviços de saúde mental, especialmente em regiões com escassez de profissionais. Ferramentas baseadas em IA têm apoiado terapeutas ao identificar padrões de fala e escrita que sinalizam transtornos como depressão e ansiedade. Além disso, assistentes virtuais ajudam pacientes a monitorar seu progresso e aplicar estratégias terapêuticas recomendadas entre uma sessão e outra.
De acordo com um estudo recente da McKinsey & Company, 58% das organizações de saúde esperam um retorno positivo sobre o investimento (ROI) com o uso da IA generativa. Um relatório de 2025 publicado pela Harvard Business Review reforça esse movimento, destacando o crescimento significativo das aplicações pessoais da IA generativa, especialmente na área de saúde mental. O uso pessoal saltou de 17% para 31% em apenas dois anos, com destaque para funções como suporte emocional, aconselhamento sobre relacionamentos, ajuda no processamento de traumas e construção de autoconfiança. A acessibilidade, o baixo custo e a ausência de julgamento são os principais fatores que impulsionam essa adoção. Além disso, agentes personalizados de Gen AI estão superando os modelos genéricos, oferecendo experiências mais eficazes e direcionadas.
No entanto, em meio ao entusiasmo, os riscos também precisam ser encarados com seriedade. O caso do suicídio de um adolescente na Flórida, no início deste ano, acendeu um alerta: algoritmos que simulam interações humanas e estimulam comportamentos viciantes podem ser extremamente perigosos sem medidas de segurança, regulamentações adequadas e testes rigorosos. O episódio reforça a responsabilidade dos profissionais de saúde mental, que devem agir com extrema cautela antes de incorporar agentes de IA generativa a contextos terapêuticos — especialmente com pacientes vulneráveis. Também ressalta a importância do papel das famílias, que precisam estar atentas aos riscos adicionais nos dispositivos usados por crianças e adolescentes.
A resistência a essa evolução é compreensível. A Califórnia, por exemplo, recentemente aprovou uma legislação proibindo a personificação de terapeutas por IA, refletindo preocupações legítimas sobre a segurança e a ética no uso dessa tecnologia. De fato, os modelos atuais não são seguros para atuar de forma autônoma e sem supervisão. Soltar a IA sobre pacientes desavisados seria irresponsável. Mas isso não significa que devemos ignorar seu enorme potencial.
O futuro da terapia não está na substituição dos profissionais humanos, mas sim em um modelo híbrido, onde a tecnologia potencializa o trabalho dos especialistas em saúde mental. A chave para essa evolução está na ética e na segurança. À medida que continuamos investindo em inovação com responsabilidade, os próximos meses e anos devem trazer avanços significativos — sempre com o objetivo de ampliar o acesso, aumentar a qualidade do cuidado e preservar a conexão humana essencial no processo terapêutico.
*Andy Bookas é cofundador da Telavita.