Contato

Nesse Artigo

O uso de IA na terapia cresce, mas levanta alertas sobre privacidade, dados sensíveis e limites da substituição do cuidado humano.

Inteligência artificial na terapia: falam o que devem ou o que o paciente deseja ouvir?  

Quem acessou as redes sociais nos últimos dias deve ter visto as diversas trends com o uso de inteligência Artificial. Pipocaram vídeos com pessoas desabafando e recebendo “conselhos”, perguntando sobre quais são suas bençãos, busca por direcionamento em variadas situações e muitos outros temas. O uso da inteligência artificial (IA) na área da saúde mental cresce em ritmo acelerado, segundo pesquisa da Sentio University, 48,7% dos usuários de IA com problemas mentais reportados, utilizam a IA para suporte terapêutico. 

Ferramentas de chatbots, aplicativos de autoajuda e até plataformas que simulam atendimentos psicológicos têm sido oferecidos como alternativas mais acessíveis ou rápidas. Mas essa tendência levanta um alerta importante: até que ponto a IA pode – ou deve – substituir o papel humano na terapia?

A tentativa de substituição

A grande promessa da IA em terapias é a escalabilidade: disponibilidade 24/7, respostas rápidas e “personalizadas”, valores acessíveis. Porém, é na personalização que se esconde um risco: responder exatamente o que o usuário deseja ouvir, e não o que ele precisa. Diferente de um profissional humano, a IA pode ser treinada para atender expectativas e padrões de linguagem e, mesmo com prompts certeiros, ela nem sempre consegue confrontar, provocar reflexão ou acolher silêncios, principalmente quando falamos em sentimentos humanos.

Em recente entrevista para a BandNews, Cristiano Vicente, diretor de Inovação e Tecnologia da Gröwnt, resume de forma certeira sobre a sensação de humanidade nas respostas da IA ao usuário

As inteligências artificiais que temos disponíveis hoje, tentam simular uma emoção, elas não possuem essa capacidade. Todo dado, toda informação que o usuário compartilha, ela converte para um número, pesquisa em sua base de dados e retorna com uma resposta compatível também. É importante ter essa clareza.”

Outro ponto de bastante destaque é sobre a gratuidade e facilidade de acesso às IAs, o que acaba gerando uma sensação de confiança, conveniência e vínculo. Tais fatores impulsionam ainda mis o uso das IAs em contextos terapêuticos, já que muitos aplicativos e sites oferecem versões gratuitas ou de baixo custo. Porém, é preciso pensar o que está além dessa gratuidade, como Cristiano Vicente reforça: “se o produto é de graça, você é o produto”, ou seja, essa solução imediata pode ter consequências futuras, pensando no compartilhamento de dados sensíveis, exposição de informações extremamente pessoais, o uso de tais informações para outros fins, o acesso a eles, entre outras questões. Casos recentes reforçam a necessidade de regulação rígida e de consentimento informado para evitar violações de privacidade. 

Dados e tendências do setor

  • Estudo da Frontiers in Digital Health (2023) mostrou que mais de 35% dos pacientes em apps de saúde mental relataram frustração com respostas padronizadas de IA, percebendo a falta de empatia. 
  • De acordo com a World Economic Forum (2024), o mercado de aplicativos de saúde mental movidos por IA deve atingir US$ 7,5 bilhões até 2030. 
  • Já a American Psychological Association destaca que, embora a IA possa auxiliar em triagem e monitoramento, o processo terapêutico exige interação humana para produzir transformações reais. 

Inteligência Artificial na Terapia: O que pode e não pode  

A inteligência artificial pode ser uma aliada complementar na saúde mental, ajudando em: 

  • Monitoramento de sintomas em tempo real
  • Lembretes de medicação ou práticas de autocuidado 
  • Identificação de padrões em relatos escritos ou falados 

Mas não pode ou deve: 

  • Substituir o julgamento clínico de um profissional 
  • Entender nuances emocionais profundas 
  • Oferecer intervenções terapêuticas seguras em casos de crise

O papel insubstituível do humano

A inteligência artificial pode até simular escuta, mas não possui empatia genuína, ética clínica ou responsabilidade profissional. O alerta é claro: usar IA como suporte, nunca como substituto. A terapia continua sendo um espaço humano, em que o confronto respeitoso, o silêncio acolhedor e a relação interpessoal são insubstituíveis.

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *