Erro

O risco de usar o ChatGPT como "psicólogo"

Postado por Alex Correa de Souza em 01/07/2025 16:37


1. A sedução da inteligência artificial

 

É madrugada. A ansiedade aperta, um nó na garganta impede o sono e a solidão do quarto parece amplificar cada preocupação. O impulso de buscar ajuda é imediato, mas em vez de ligar para um amigo ou procurar o contato de um profissional, o refúgio está na tela fria do celular. Em poucos segundos, um desabafo é digitado na interface limpa do ChatGPT. A resposta é instantânea, articulada, paciente e, à primeira vista, surpreendentemente empática.

A cena, cada vez mais comum, ilustra uma mudança profunda em nosso cotidiano. A inteligência artificial deixou de ser uma ferramenta para organizar tarefas ou pesquisar informações e passou a ocupar espaços íntimos, atuando como conselheira, mediadora de conflitos e, para muitos, como uma espécie de confidente digital. A fronteira mais ousada que a tecnologia cruza agora é, sem dúvida, a da saúde mental, oferecendo um suposto amparo para questões que antes eram exclusivas da interação humana.

Nesse cenário, um estudo recente publicado por Hatch et al. (2025) acendeu um debate ainda mais intenso. A pesquisa comparou diretamente a qualidade e a empatia das respostas geradas pelo ChatGPT com as de psicoterapeutas humanos em atendimentos simulados. Surpreendentemente, muitos participantes não apenas tiveram dificuldade em distinguir um do outro, como classificaram as respostas da IA como sendo de qualidade igual ou até superior às dos profissionais.

A promessa é sedutora: um "psicólogo" disponível 24 horas por dia, sete dias por semana, sem julgamentos e a um custo irrisório. Mas essa interação, por mais sofisticada que pareça, pode ser chamada de cuidado? Ou estamos apenas diante de um simulacro de escuta, uma aparência de acolhimento que, no fundo, pode nos afastar daquilo que realmente cura: a complexa e insubstituível relação humana.

 

 

2. O que diz o estudo: quando a IA “parece” empática

 

O estudo de Hatch et al. (2025), publicado na prestigiosa revista PLOS Mental Health, serve como o epicentro dessa discussão. A metodologia foi direta: pesquisadores apresentaram a centenas de participantes vinhetas clínicas, pequenos relatos de problemas pessoais como os que surgem em psicoterapia, e forneceram duas respostas distintas para cada um. Uma resposta era elaborada por um psicoterapeuta licenciado e a outra, pelo ChatGPT-4. Os participantes, então, tinham que avaliar qual resposta consideravam mais útil, clara e, principalmente, empática.

O resultado foi, para muitos, um choque. Em quase 80% dos casos, os participantes preferiram as respostas geradas pela inteligência artificial. O ChatGPT foi consistentemente mais bem avaliado em quesitos como validação, nuance e demonstração de empatia textual. O algoritmo não apenas pareceu humano, como foi frequentemente percebido como mais humano e atencioso do que os próprios psicólogos nas interações propostas.

Aqui, porém, reside a principal e mais crucial limitação do estudo, algo que os próprios autores reconhecem: a conclusão é baseada em respostas textuais, isoladas e estáticas. O que os participantes avaliaram não foi uma sessão terapêutica, com a troca dinâmica, as pausas, o silêncio e a construção de um vínculo ao longo do tempo. Eles avaliaram a habilidade de um algoritmo em redigir um parágrafo que soa empático, e não a capacidade de um terapeuta de escutar e construir uma relação de cuidado.

Portanto, embora o estudo seja um marco para entender as impressionantes capacidades da IA na simulação da linguagem, suas conclusões se restringem ao formato utilizado. Ele nos mostra que o ChatGPT é um excelente redator de respostas empáticas, mas não oferece evidências de que ele possa ser um terapeuta. A pesquisa capturou uma fotografia de uma interação, não o filme completo de um processo terapêutico, e é nessa diferença que moram todos os riscos.

 

3. O que a IA não pode fazer: escutar com o corpo, o tempo e o vínculo

 

Se o estudo de Hatch et al. (2025) revela a impressionante capacidade da IA de formular respostas, ele também, por omissão, ilumina tudo aquilo que a tecnologia é incapaz de oferecer. A psicoterapia não é um serviço de perguntas e respostas, mas um encontro que se ancora em dimensões profundamente humanas, inacessíveis a qualquer algoritmo.

Primeiramente, há a qualidade da escuta. Em sua obra clássica "Tornar-se Pessoa", Carl Rogers descreve a escuta empática como um ato de presença total, onde o psicólogo se esforça para apreender o mundo do cliente como se fosse o seu próprio, mas sem nunca perder a qualidade do "como se". Muitas vezes, a intervenção mais poderosa não é uma frase, mas um silêncio que acolhe. É essa presença que cria o que Donald Winnicott chamaria de um ambiente de sustentação (holding environment), um espaço seguro onde o paciente pode se permitir ser vulnerável. Um chatbot, projetado para dar respostas imediatas, não consegue sustentar o "não saber", essa capacidade fundamental do psicólogo de suportar a incerteza junto ao paciente, fundamental para que algo novo possa surgir.

A teoria psicanalítica aprofunda essa visão. A relação terapêutica é o palco para a transferência e a contratransferência: as projeções inconscientes que o paciente deposita no psicólogo e as reações que isso gera no profissional. Para autores como Thomas Ogden, é no manejo dessa dança que algo novo é criado, um "terceiro analítico" que não pertence nem ao paciente, nem ao analista, mas ao espaço intersubjetivo entre eles. Uma IA não possui um inconsciente, uma história pessoal ou um corpo para sentir o impacto do relato do outro. Ela não pode participar dessa criação, pois lhe falta a subjetividade necessária para compor a relação.

Isso nos leva à diferença crucial entre a empatia programada e a empatia genuína. A IA imita a empatia a partir de um vasto repertório de dados. A empatia humana, no entanto, é uma experiência visceral que se conecta ao vínculo de confiança construído ao longo do tempo. É o que permite ao psicólogo, como descreve Winnicott em "O Brincar e a Realidade", funcionar como um objeto transicional, alguém que está lá de forma confiável enquanto o paciente explora seu mundo interno. A máquina pode responder, mas não pode "estar com".

É por isso que responder bem não é, e nunca será, o mesmo que cuidar. Uma resposta correta pode aliviar um sintoma momentaneamente. O cuidado, por sua vez, é um processo que envolve a presença, a relação e a coragem de mergulhar no desconhecido ao lado de outro ser humano. Talvez o alerta mais lúcido venha do próprio criador do ELIZA, o primeiro chatbot "terapêutico". Décadas atrás, Joseph Weizenbaum já advertia que, quando se trata de máquinas e emoções humanas, "a ilusão de compreensão é perigosa".

 

4. Os riscos reais do uso da IA como substituto clínico

 

A "ilusão de compreensão" apontada por Weizenbaum não é um risco abstrato; ela se desdobra em perigos concretos quando a IA é tratada como um substituto clínico. O primeiro e mais imediato deles é a falsa sensação de acolhimento. A pessoa recebe uma resposta perfeitamente construída, sente um alívio momentâneo e acredita ter sido profundamente compreendida. No entanto, essa validação carece de presença afetiva. É um eco, não uma escuta. O perigo é que esse "calmante" sintético desmotive a busca por uma ajuda real, mantendo o indivíduo na superfície do seu sofrimento.

Isso leva diretamente ao isolamento subjetivo. No diálogo com a máquina, a pessoa pode facilmente confundir o ato de falar com a experiência de ser ouvida. Falar é externalizar um conteúdo, um monólogo que busca organização. Ser ouvido, contudo, é um evento relacional, no qual a nossa subjetividade é reconhecida e validada pela presença de outro sujeito. Ao confiar seus afetos a um não-sujeito, o indivíduo corre o risco de se fechar em uma bolha, onde sua dor é apenas espelhada, nunca verdadeiramente partilhada, aprofundando a solidão que pretendia combater.

É nesse vácuo relacional que surge o risco da iatrogenia digital, ou seja, o dano causado pelo "tratamento". Sem um julgamento clínico apurado, a IA pode reforçar padrões disfuncionais. Por exemplo, um algoritmo treinado para ser agradável pode validar excessivamente os sentimentos de culpa de um paciente, em vez de ajudá-lo a questionar essa perspectiva. Em casos mais graves, como ideação suicida ou crises psicóticas, uma resposta genérica ou inadequada pode ter consequências fatais. O psicólogo humano é treinado para perceber nuances, ler nas entrelinhas e intervir de forma segura, algo que a IA não pode fazer.

Agravando esse cenário, há a completa ausência de ética clínica. Um psicólogo é regido por um código de conduta rigoroso que dita confidencialidade, responsabilidade e limites. Ele participa de supervisão, discute casos e é legalmente responsável por seus atos. A IA, por outro lado, não tem responsabilidade ética. A quem recorrer se um conselho do chatbot causar dano? À empresa de tecnologia? Ao programador? Essa lacuna cria uma zona cinzenta perigosa, desprovida da rede de segurança que protege os pacientes na psicoterapia tradicional.

Finalmente, em um nível mais profundo, o uso da IA como substituto pode funcionar como uma fuga da dor real. O encontro terapêutico é, muitas vezes, difícil. Exige a coragem de encarar o sofrimento e a complexidade de uma relação humana. O chatbot oferece uma alternativa sedutora: um conforto sem confronto, uma validação sem a vulnerabilidade do encontro. É uma defesa sofisticada contra a angústia de se relacionar e se transformar, que, ao fim, impede o verdadeiro processo de cura.

 

 

5. IA pode ser ferramenta, mas nunca psicólogo

 

Criticar a substituição do psicólogo pela IA não significa demonizar a tecnologia ou negar seu potencial. Pelo contrário, quando utilizada como uma ferramenta de apoio e não como um substituto, a inteligência artificial pode ter aplicações valiosas no ecossistema da saúde mental. Ela pode, por exemplo, otimizar processos de triagem, ajudando a direcionar pacientes para o nível de cuidado adequado com mais agilidade.

Da mesma forma, a IA pode ser uma poderosa aliada na psicoeducação, oferecendo informações claras e acessíveis sobre transtornos, tratamentos e estratégias de manejo. Para um indivíduo que busca entender seus próprios processos, a tecnologia pode servir como uma ferramenta para organização emocional inicial, funcionando como um diário interativo que ajuda a identificar padrões de pensamento e humor. Essas funções são úteis, escaláveis e podem democratizar o acesso a informações preliminares.

Contudo, é fundamental traçar uma linha clara e intransponível: todas essas aplicações, por mais úteis que sejam, operam no campo da informação e da organização. Isso não é psicoterapia. A função de uma ferramenta é otimizar uma tarefa; a função da psicoterapia é sustentar um processo de transformação subjetiva. Uma ferramenta lida com dados; a psicoterapia lida com a dor, o inconsciente e a complexidade de uma vida.

O que está em jogo é a diferença entre eficiência e cuidado. Podemos e devemos usar a tecnologia para tornar o acesso à saúde mental mais eficiente. Mas o cuidado ético, que é sensível ao sofrimento, que se responsabiliza pelo outro e que reconhece a singularidade de cada sujeito, só pode ser sustentado por um encontro humano. A IA pode gerenciar informações, mas apenas um psicólogo pode manejar uma relação.

 

6. Conclusão: o que está em jogo não é a tecnologia, é a relação

 

Ao longo desta reflexão, partimos da sedutora promessa de um "psicólogo de bolso" para mergulhar nas profundezas do que realmente constitui o cuidado em saúde mental. Vimos que a tecnologia pode imitar a empatia com perfeição, mas não pode oferecer um vínculo. O debate, portanto, não é sobre ser contra ou a favor da inteligência artificial. A questão central é outra: o que buscamos quando sentimos a necessidade de falar?

A psicoterapia sobrevive e se mostra essencial justamente porque seu valor não reside em fornecer "respostas certas", mas em oferecer um espaço de presença, escuta e transformação. É um processo construído na imperfeição de uma relação humana, com seus silêncios, hesitações e emoções compartilhadas. Confiar a saúde mental exclusivamente a um algoritmo é, no fundo, como conversar com um espelho que aprendeu a responder. Ele reflete nossas palavras com uma clareza impressionante, mas seus olhos estão vazios. Ele nos devolve uma imagem, mas nunca nos vê de verdade, pois responder, como vimos, não é o mesmo que escutar.

No fim, a questão que cada um de nós deve se fazer é simples. Diante da angústia, do medo ou da confusão, o que realmente desejamos? A eficiência de uma resposta programada ou o valor inestimável de sermos verdadeiramente ouvidos por outro ser humano? A tecnologia pode nos oferecer muito, mas a cura, em sua forma mais profunda, ainda floresce no terreno fértil da relação.

6.1 Reflexão final: quando é hora de procurar um psicólogo

Refletir sobre o que é cuidado já é, por si só, um movimento de transformação. Se as ideias deste artigo tocaram algo em você, se em algum momento você se viu na solidão daquela madrugada, buscando respostas numa tela, talvez esse seja o sinal de que algo em você deseja ser escutado de verdade.

A psicoterapia não oferece respostas prontas. Ela oferece presença. Um espaço de escuta ética, humana e qualificada. Um lugar onde sua dor é acolhida, não processada. Onde sua história é ouvida, não interpretada por padrões.

Se você sente que é o momento de abrir esse espaço de cuidado, eu o convido a conhecer meu trabalho. A cura acontece no encontro entre dois seres humanos, com tempo, com vínculo e com respeito à singularidade de quem você é.

 

7. Referências

 

  • HATCH, J. B.; NIELS, N.; WEINGARDEN, H. Comparing therapist- and artificial intelligence-generated responses to simulated client questions. PLOS Mental Health, v. 1, n. 1, e0000145, 9 maio 2024. Disponível em: https://journals.plos.org/mentalhealth/article?id=10.1371/journal.pmen.0000145. Acesso em: 1 jul. 2025.
  • OGDEN, Thomas H. A matriz da mente: as relações de objeto e o diálogo psicanalítico. Tradução: D. M. S. Netto. Porto Alegre: Artmed, 1996.
  • ROGERS, Carl R. Tornar-se pessoa. 6. ed. Tradução: Manuel J. C. Portugal e V. L. Caleiro. São Paulo: WMF Martins Fontes, 2009.
  • WEIZENBAUM, Joseph. Computer power and human reason: from judgment to calculation. San Francisco: W. H. Freeman, 1976.
  • WINNICOTT, Donald W. O brincar e a realidade. Tradução: José Octávio de Aguiar Abreu e Vanede Nobre. São Paulo: Ubu Editora, 2019.

 

 

 

 






X

Quer receber novidades?

Assine nossa newsletter!

Precisa de ajuda?