Quem acessou as redes sociais nos últimos dias deve ter visto as diversas trends com o uso de inteligência Artificial. Pipocaram vídeos com pessoas desabafando e recebendo “conselhos”, perguntando sobre quais são suas bençãos, busca por direcionamento em variadas situações e muitos outros temas. O uso da inteligência artificial (IA) na área da saúde mental cresce em ritmo acelerado, segundo pesquisa da Sentio University, 48,7% dos usuários de IA com problemas mentais reportados, utilizam a IA para suporte terapêutico.
Ferramentas de chatbots, aplicativos de autoajuda e até plataformas que simulam atendimentos psicológicos têm sido oferecidos como alternativas mais acessíveis ou rápidas. Mas essa tendência levanta um alerta importante: até que ponto a IA pode – ou deve – substituir o papel humano na terapia?
A tentativa de substituição
A grande promessa da IA em terapias é a escalabilidade: disponibilidade 24/7, respostas rápidas e “personalizadas”, valores acessíveis. Porém, é na personalização que se esconde um risco: responder exatamente o que o usuário deseja ouvir, e não o que ele precisa. Diferente de um profissional humano, a IA pode ser treinada para atender expectativas e padrões de linguagem e, mesmo com prompts certeiros, ela nem sempre consegue confrontar, provocar reflexão ou acolher silêncios, principalmente quando falamos em sentimentos humanos.
Em recente entrevista para a BandNews, Cristiano Vicente, diretor de Inovação e Tecnologia da Gröwnt, resume de forma certeira sobre a sensação de humanidade nas respostas da IA ao usuário
As inteligências artificiais que temos disponíveis hoje, tentam simular uma emoção, elas não possuem essa capacidade. Todo dado, toda informação que o usuário compartilha, ela converte para um número, pesquisa em sua base de dados e retorna com uma resposta compatível também. É importante ter essa clareza.”
Outro ponto de bastante destaque é sobre a gratuidade e facilidade de acesso às IAs, o que acaba gerando uma sensação de confiança, conveniência e vínculo. Tais fatores impulsionam ainda mis o uso das IAs em contextos terapêuticos, já que muitos aplicativos e sites oferecem versões gratuitas ou de baixo custo. Porém, é preciso pensar o que está além dessa gratuidade, como Cristiano Vicente reforça: “se o produto é de graça, você é o produto”, ou seja, essa solução imediata pode ter consequências futuras, pensando no compartilhamento de dados sensíveis, exposição de informações extremamente pessoais, o uso de tais informações para outros fins, o acesso a eles, entre outras questões. Casos recentes reforçam a necessidade de regulação rígida e de consentimento informado para evitar violações de privacidade.
Dados e tendências do setor
- Estudo da Frontiers in Digital Health (2023) mostrou que mais de 35% dos pacientes em apps de saúde mental relataram frustração com respostas padronizadas de IA, percebendo a falta de empatia.
- De acordo com a World Economic Forum (2024), o mercado de aplicativos de saúde mental movidos por IA deve atingir US$ 7,5 bilhões até 2030.
- Já a American Psychological Association destaca que, embora a IA possa auxiliar em triagem e monitoramento, o processo terapêutico exige interação humana para produzir transformações reais.
Inteligência Artificial na Terapia: O que pode e não pode
A inteligência artificial pode ser uma aliada complementar na saúde mental, ajudando em:
- Monitoramento de sintomas em tempo real
- Lembretes de medicação ou práticas de autocuidado
- Identificação de padrões em relatos escritos ou falados
Mas não pode ou deve:
- Substituir o julgamento clínico de um profissional
- Entender nuances emocionais profundas
- Oferecer intervenções terapêuticas seguras em casos de crise
O papel insubstituível do humano
A inteligência artificial pode até simular escuta, mas não possui empatia genuína, ética clínica ou responsabilidade profissional. O alerta é claro: usar IA como suporte, nunca como substituto. A terapia continua sendo um espaço humano, em que o confronto respeitoso, o silêncio acolhedor e a relação interpessoal são insubstituíveis.





