
Os resultados desse estudo sugerem que a IA tem o potencial de melhorar os processos terapêuticos e até superar profissionais humanos em alguns aspectos específicos, como acessibilidade e consistência na entrega de respostas. No entanto, ainda há desafios a serem superados, incluindo questões éticas, supervisão clínica e a necessidade de adaptar as respostas da IA ao contexto emocional e individual de cada paciente.
A ideia de que máquinas podem pensar tem sido explorada há décadas, desde que Alan Turing propôs o famoso "jogo da imitação". Nesse experimento teórico, um interrogador humano faz perguntas a duas entidades, um humano e uma máquina, sem saber quem é quem, e deve identificar qual das respostas pertence a uma pessoa real.
Turing previu que, até o ano 2000, os interrogadores acertariam apenas 70% das vezes, o que indicaria que as máquinas poderiam imitar a linguagem humana com grande sucesso. Menos de 20 anos depois de sua previsão, surgiu o ELIZA, um dos primeiros programas capazes de simular uma conversa terapêutica.

Alan Turing and the Turing machine
Criado para responder como um psicoterapeuta, o ELIZA usava um estilo de conversação baseado em reformulações de perguntas e validação emocional, o que fazia muitas pessoas acreditarem que estavam interagindo com um profissional real. Isso mostrou que, com poucos recursos, era possível criar uma ilusão de compreensão.
Desde então, a inteligência artificial avançou consideravelmente, e hoje os chatbots de IA generativa, como o ChatGPT, estão sendo estudados como ferramentas auxiliares na psicoterapia.
Alguns pesquisadores ainda questionam se robôs podem realmente estabelecer um relacionamento terapêutico genuíno, mas evidências recentes sugerem que a IA pode ser útil nesse contexto. Estudos mostraram que a IA pode complementar o atendimento humano e até fornecer suporte psicológico de maneira independente.
Por exemplo, o assistente virtual HAILEY foi utilizado para fornecer feedback imediato em uma plataforma de suporte emocional chamada TalkLife. Cerca de 63% das respostas geradas com auxílio da IA foram classificadas como igualmente ou mais empáticas do que as respostas escritas por humanos.
Outro estudo analisou o uso do ChatGPT 3.5 para ajudar no ambiente de trabalho, criando mensagens de gratidão e reconhecimento. Curiosamente, as pessoas preferiram as mensagens geradas pela IA, que eram mais longas, mais positivas e linguisticamente mais ricas do que as escritas manualmente.

Quando a IA é usada de maneira autônoma para responder a questões médicas ou psicológicas, os resultados são igualmente impressionantes. Em um experimento, médicos avaliaram respostas do ChatGPT a perguntas retiradas do Reddit e preferiram as respostas geradas pela IA em 78,6% dos casos, classificando-as como mais empáticas do que as respostas fornecidas por profissionais humanos.
De forma semelhante, especialistas em relacionamentos compararam respostas da IA com respostas de terapeutas e descobriram que muitas vezes as pessoas não conseguiam distinguir entre elas. Além disso, terapeutas que analisaram sessões conduzidas pelo ChatGPT sem saber que eram geradas por IA classificaram a qualidade das interações como alta.
Quando entrevistados sobre suas experiências, participantes que receberam suporte da IA consideraram as respostas completas e apropriadas para explorar problemas de relacionamento.
Com base nesses resultados, há um interesse crescente no uso da IA para intervenções de terapia de casal online. Nos últimos 20 anos, diversos programas digitais têm sido desenvolvidos para ajudar casais a melhorar seus relacionamentos.
Alguns desses programas, como o OurRelationship e o ePREP, demonstraram ter efeitos positivos na satisfação dos casais, especialmente entre minorias étnicas, raciais e sexuais. Essas intervenções frequentemente utilizam coaches humanos para guiar os participantes, mas a IA pode ser uma alternativa eficiente, pois não sofre das mesmas limitações de tempo e disponibilidade.

Um chatbot de IA baseado em evidências poderia oferecer suporte contínuo, acessível a qualquer pessoa com conexão à internet. No entanto, a supervisão humana ainda seria essencial para garantir a segurança e a eficácia dessas interações.
Apesar dos avanços, a pesquisa atual ainda apresenta algumas limitações. Nos estudos comparando a IA com terapeutas humanos, os especialistas humanos não sabiam que estavam sendo avaliados em relação à IA, e qualquer terapeuta tem conhecimento limitado em comparação com a vasta base de informações que um modelo de IA pode acessar.
Além disso, muitas transcrições de sessões de terapia são confidenciais, dificultando a análise de padrões linguísticos que poderiam ajudar a entender o que torna uma resposta terapêutica eficaz.
Outro ponto importante é que a maioria dos estudos foca na capacidade da IA de gerar respostas empáticas, mas a terapia envolve outros fatores cruciais, como a construção de uma relação terapêutica sólida, a definição de expectativas realistas para o tratamento e a competência cultural para lidar com diferentes perfis de clientes.

Uma questão mais ampla na psicoterapia é que a eficácia das intervenções baseadas em evidências parece ter atingido um platô. Os efeitos das terapias não estão melhorando significativamente ao longo do tempo, o que levanta a possibilidade de que a IA possa ser uma ferramenta para inovar na área.
Modelos de IA podem ajudar a criar novas abordagens terapêuticas ou aprimorar as existentes, aumentando o impacto dos tratamentos psicológicos.
Para explorar melhor esses aspectos, um estudo recente comparou diretamente as respostas de 13 terapeutas experientes com respostas geradas pelo ChatGPT 4.0 em 18 cenários de terapia de casal.
Um grupo de 830 participantes foi encarregado de distinguir entre as respostas da IA e as dos terapeutas. Como previsto por Turing, os participantes tiveram grande dificuldade em identificar corretamente qual resposta pertencia a um humano e qual era da IA.
Além disso, as respostas do ChatGPT foram frequentemente classificadas como mais alinhadas com os princípios fundamentais da terapia, como empatia e clareza. Diferenças linguísticas também foram identificadas: as respostas da IA eram mais longas, usavam uma variedade maior de palavras e tinham um tom mais positivo.

Esses resultados sugerem que a IA tem o potencial de melhorar os processos terapêuticos e até superar profissionais humanos em alguns aspectos específicos, como acessibilidade e consistência na entrega de respostas.
No entanto, ainda há desafios a serem superados, incluindo questões éticas, supervisão clínica e a necessidade de adaptar as respostas da IA ao contexto emocional e individual de cada paciente.
A pesquisa futura pode se concentrar em refinar a maneira como a IA interage com os usuários, garantindo que ela seja uma ferramenta eficaz e segura para aqueles que buscam suporte emocional e terapêutico.
LEIA MAIS:
When ELIZA meets therapists: A Turing test for the heart and mind
S. Gabe Hatch, Zachary T. Goodman, Laura Vowels, H. Dorian Hatch, Alyssa L. Brown, Shayna Guttman, Yunying Le, Benjamin Bailey, Russell J. Bailey, Charlotte R. Esplin, Steven M. Harris, D. Payton Holt Jr., Merranda McLaughlin, Patrick O’Connell, Karen Rothman, Lane Ritchie, D. Nicholas Top Jr., and
Scott R. Braithwaite
PLOS Ment Health 2 (2): e0000145. https://doi.org/10.1371/journal.pmen.0000145
Abstract:
Can machines be therapists?” is a question receiving increased attention given the relative ease of working with generative artificial intelligence. Although recent (and decades-old) research has found that humans struggle to tell the difference between responses from machines and humans, recent findings suggest that artificial intelligence can write empathically and the generated content is rated highly by therapists and outperforms professionals. It is uncertain whether, in a preregistered competition where therapists and ChatGPT respond to therapeutic vignettes about couple therapy, a) a panel of participants can tell which responses are ChatGPT-generated and which are written by therapists (N = 13), b) the generated responses or the therapist-written responses fall more in line with key therapy principles, and c) linguistic differences between conditions are present. In a large sample (N = 830), we showed that a) participants could rarely tell the difference between responses written by ChatGPT and responses written by a therapist, b) the responses written by ChatGPT were generally rated higher in key psychotherapy principles, and c) the language patterns between ChatGPT and therapists were different. Using different measures, we then confirmed that responses written by ChatGPT were rated higher than the therapist’s responses suggesting these differences may be explained by part-of-speech and response sentiment. This may be an early indication that ChatGPT has the potential to improve psychotherapeutic processes. We anticipate that this work may lead to the development of different methods of testing and creating psychotherapeutic interventions. Further, we discuss limitations (including the lack of the therapeutic context), and how continued research in this area may lead to improved efficacy of psychotherapeutic interventions allowing such interventions to be placed in the hands of individuals who need them the most.
Comments