Pular para o conteúdo
Insight Artificial
Inscreva-se
Opinião & Análise

IAs de terapia: o que funciona, o que não funciona e os riscos que ninguém discute

Felipe Luis Salgueiro

5 de maio de 2026 · 6 min de leitura

IAs de terapia saúde mental riscos eficácia

O Woebot tem designação de Breakthrough do FDA para depressão pós-parto. O Replika serve 30 milhões de usuários. O mercado de AI mental health deve atingir US$9 bilhões até 2027. E 77% dos estudos clínicos sobre IAs de terapia ainda estão em validação inicial, sem dados de eficácia comprovada.

Esses dois conjuntos de números coexistem. Não são contraditórios — mas criam uma confusão real sobre o que as IAs de terapia são, o que não são, e quando representam risco em vez de suporte.

O problema não é que IAs de terapia existam. O problema é que crescem mais rápido do que a evidência sobre quando funcionam e quando prejudicam.

O que as IAs de terapia realmente fazem

A maioria dos aplicativos de saúde mental baseados em IA opera em uma de três modalidades:

  • CBT estruturada (Cognitive Behavioral Therapy): O app guia o usuário por exercícios clínicos baseados em terapia cognitivo-comportamental — registro de humor, identificação de pensamentos automáticos, técnicas de reestruturação cognitiva. Woebot é o exemplo mais documentado.
  • Suporte de companhia e escuta: Aplicativos como Replika focam em criar conexão emocional e presença — o usuário fala, o agente responde com empatia. Não há protocolo clínico — é suporte social sintético.
  • Triagem e encaminhamento: IAs que identificam sinais de risco e direcionam para profissionais. Funcionam como primeira camada de detecção, não como intervenção.

A distinção importa porque os riscos de cada modalidade são diferentes.

O que a evidência diz (e o que ainda não diz)

A pesquisa mais rigorosa disponível, publicada no JMIR Mental Health em 2025, analisou estudos clínicos sobre LLMs em saúde mental: apenas 16% testaram eficácia clínica com metodologia robusta. Os 84% restantes estão em estágio de validação de conceito ou teste de usabilidade.

O que a evidência mostra com confiança razoável:

  • Apps de CBT estruturada reduzem sintomas de depressão leve a moderada em estudos de curto prazo
  • Acessibilidade é real: o custo de entrada é zero, disponível 24h, sem lista de espera
  • Para sintomas subclínicos (ansiedade situacional, estresse ocupacional), o suporte funciona como complemento

O que a evidência não sustenta:

  • Eficácia para condições graves (psicose, TOC severo, transtorno bipolar em crise)
  • Substituição de acompanhamento humano em qualquer caso de risco de suicídio
  • Privacidade garantida — a maioria dos apps não tem políticas claras sobre onde os dados de saúde mental vão

O risco real que o mercado não discute

O problema mais sério não é a IA dar conselho ruim. É o usuário sentir que está recebendo suporte adequado quando não está.

Aplicativos de companhia como Replika são projetados para criar vínculo emocional — é o produto. O usuário que usa Replika como substituto de relacionamento humano ou de acompanhamento terapêutico está em uma relação que nenhuma avaliação clínica valida e que a própria empresa não garante.

O manejo de crises é o ponto mais crítico. Quando um usuário expressa pensamentos suicidas, o protocolo varia enormemente entre apps — alguns encaminham para serviços de emergência, outros simplesmente não estão equipados para detectar o risco. A ausência de padrão nessa área é o problema que reguladores europeus e americanos estão começando a endereçar.

Quando usar — e quando não usar

Casos onde IA de terapia faz sentido:

  • Exercícios de CBT como complemento a terapia humana
  • Acesso em regiões sem cobertura de saúde mental adequada
  • Suporte entre sessões com terapeuta (não substituição)
  • Triagem inicial para identificar se o nível de sintoma justifica buscar profissional

Casos onde IA de terapia representa risco:

  • Qualquer sintoma grave ou histórico de crise
  • Substituição de relação terapêutica humana como estratégia principal
  • Usuários que não têm clareza sobre o que estão usando (app ou terapeuta)
  • Crianças e adolescentes sem supervisão parental ou clínica

O que vem por aí

A FDA está desenvolvendo framework regulatório específico para Digital Mental Health Interventions (DMHIs). A Europa, via AI Act, categoriza apps de saúde mental como IA de alto risco quando tomam decisões com impacto na saúde. A pressão regulatória vai aumentar — e a distinção entre app de bem-estar (não regulado) e dispositivo médico (regulado) vai se tornar mais clara e mais exigente.

Para quem usa ou recomenda essas ferramentas: a pergunta correta não é "isso funciona?". É "para quem, com qual nível de sintoma, com qual combinação de suporte adicional?"


Leia também

Perguntas frequentes

IAs de terapia são clinicamente eficazes?

A evidência é limitada: apenas 16% dos estudos sobre LLMs em saúde mental testaram eficácia clínica com metodologia robusta (JMIR Mental Health, 2025). Apps de CBT estruturada mostram redução de sintomas em depressão leve a moderada em estudos de curto prazo. Para condições graves, a evidência não sustenta o uso como tratamento principal.

Quais são os riscos das IAs de terapia?

O principal risco é o usuário sentir que está recebendo suporte adequado quando não está. Apps de companhia (como Replika) criam vínculo emocional sem protocolo clínico. Manejo de crise varia entre apps — alguns não detectam risco de suicídio adequadamente. Privacidade dos dados de saúde mental é opaca na maioria das plataformas.

Qual a diferença entre Woebot e Replika?

Woebot usa protocolo de CBT estruturada e tem designação FDA de Breakthrough para depressão pós-parto — é o mais próximo de dispositivo médico digital. Replika é voltado para companhia e suporte emocional, sem protocolo clínico. Replika serve 30M+ usuários mas opera na modalidade de "suporte social sintético", não de intervenção terapêutica.

Quando é seguro usar IA para suporte de saúde mental?

Em casos de sintomas leves (ansiedade situacional, estresse) como complemento a acompanhamento humano, ou para exercícios de CBT entre sessões com terapeuta. Não é seguro como estratégia principal para condições graves, histórico de crise ou pensamentos suicidas — nesses casos, buscar profissional de saúde mental é insubstituível.

Artigos Relacionados