O Woebot tem designação de Breakthrough do FDA para depressão pós-parto. O Replika serve 30 milhões de usuários. O mercado de AI mental health deve atingir US$9 bilhões até 2027. E 77% dos estudos clínicos sobre IAs de terapia ainda estão em validação inicial, sem dados de eficácia comprovada.
Esses dois conjuntos de números coexistem. Não são contraditórios — mas criam uma confusão real sobre o que as IAs de terapia são, o que não são, e quando representam risco em vez de suporte.
O problema não é que IAs de terapia existam. O problema é que crescem mais rápido do que a evidência sobre quando funcionam e quando prejudicam.
O que as IAs de terapia realmente fazem
A maioria dos aplicativos de saúde mental baseados em IA opera em uma de três modalidades:
- CBT estruturada (Cognitive Behavioral Therapy): O app guia o usuário por exercícios clínicos baseados em terapia cognitivo-comportamental — registro de humor, identificação de pensamentos automáticos, técnicas de reestruturação cognitiva. Woebot é o exemplo mais documentado.
- Suporte de companhia e escuta: Aplicativos como Replika focam em criar conexão emocional e presença — o usuário fala, o agente responde com empatia. Não há protocolo clínico — é suporte social sintético.
- Triagem e encaminhamento: IAs que identificam sinais de risco e direcionam para profissionais. Funcionam como primeira camada de detecção, não como intervenção.
A distinção importa porque os riscos de cada modalidade são diferentes.
O que a evidência diz (e o que ainda não diz)
A pesquisa mais rigorosa disponível, publicada no JMIR Mental Health em 2025, analisou estudos clínicos sobre LLMs em saúde mental: apenas 16% testaram eficácia clínica com metodologia robusta. Os 84% restantes estão em estágio de validação de conceito ou teste de usabilidade.
O que a evidência mostra com confiança razoável:
- Apps de CBT estruturada reduzem sintomas de depressão leve a moderada em estudos de curto prazo
- Acessibilidade é real: o custo de entrada é zero, disponível 24h, sem lista de espera
- Para sintomas subclínicos (ansiedade situacional, estresse ocupacional), o suporte funciona como complemento
O que a evidência não sustenta:
- Eficácia para condições graves (psicose, TOC severo, transtorno bipolar em crise)
- Substituição de acompanhamento humano em qualquer caso de risco de suicídio
- Privacidade garantida — a maioria dos apps não tem políticas claras sobre onde os dados de saúde mental vão
O risco real que o mercado não discute
O problema mais sério não é a IA dar conselho ruim. É o usuário sentir que está recebendo suporte adequado quando não está.
Aplicativos de companhia como Replika são projetados para criar vínculo emocional — é o produto. O usuário que usa Replika como substituto de relacionamento humano ou de acompanhamento terapêutico está em uma relação que nenhuma avaliação clínica valida e que a própria empresa não garante.
O manejo de crises é o ponto mais crítico. Quando um usuário expressa pensamentos suicidas, o protocolo varia enormemente entre apps — alguns encaminham para serviços de emergência, outros simplesmente não estão equipados para detectar o risco. A ausência de padrão nessa área é o problema que reguladores europeus e americanos estão começando a endereçar.
Quando usar — e quando não usar
Casos onde IA de terapia faz sentido:
- Exercícios de CBT como complemento a terapia humana
- Acesso em regiões sem cobertura de saúde mental adequada
- Suporte entre sessões com terapeuta (não substituição)
- Triagem inicial para identificar se o nível de sintoma justifica buscar profissional
Casos onde IA de terapia representa risco:
- Qualquer sintoma grave ou histórico de crise
- Substituição de relação terapêutica humana como estratégia principal
- Usuários que não têm clareza sobre o que estão usando (app ou terapeuta)
- Crianças e adolescentes sem supervisão parental ou clínica
O que vem por aí
A FDA está desenvolvendo framework regulatório específico para Digital Mental Health Interventions (DMHIs). A Europa, via AI Act, categoriza apps de saúde mental como IA de alto risco quando tomam decisões com impacto na saúde. A pressão regulatória vai aumentar — e a distinção entre app de bem-estar (não regulado) e dispositivo médico (regulado) vai se tornar mais clara e mais exigente.
Para quem usa ou recomenda essas ferramentas: a pergunta correta não é "isso funciona?". É "para quem, com qual nível de sintoma, com qual combinação de suporte adicional?"
Leia também
- O criador do Claude Code diz que 2025 é o último ano em que engenheiros são empregáveis
- Sua base de dados de clientes vale mais que seu produto
Perguntas frequentes
IAs de terapia são clinicamente eficazes?
A evidência é limitada: apenas 16% dos estudos sobre LLMs em saúde mental testaram eficácia clínica com metodologia robusta (JMIR Mental Health, 2025). Apps de CBT estruturada mostram redução de sintomas em depressão leve a moderada em estudos de curto prazo. Para condições graves, a evidência não sustenta o uso como tratamento principal.
Quais são os riscos das IAs de terapia?
O principal risco é o usuário sentir que está recebendo suporte adequado quando não está. Apps de companhia (como Replika) criam vínculo emocional sem protocolo clínico. Manejo de crise varia entre apps — alguns não detectam risco de suicídio adequadamente. Privacidade dos dados de saúde mental é opaca na maioria das plataformas.
Qual a diferença entre Woebot e Replika?
Woebot usa protocolo de CBT estruturada e tem designação FDA de Breakthrough para depressão pós-parto — é o mais próximo de dispositivo médico digital. Replika é voltado para companhia e suporte emocional, sem protocolo clínico. Replika serve 30M+ usuários mas opera na modalidade de "suporte social sintético", não de intervenção terapêutica.
Quando é seguro usar IA para suporte de saúde mental?
Em casos de sintomas leves (ansiedade situacional, estresse) como complemento a acompanhamento humano, ou para exercícios de CBT entre sessões com terapeuta. Não é seguro como estratégia principal para condições graves, histórico de crise ou pensamentos suicidas — nesses casos, buscar profissional de saúde mental é insubstituível.





