Cotidiano
Um artigo publicado no âmbito do Programa de Pós-Graduação em Psicologia Clínica investiga as possibilidades e limites de uma prática analítica mediada por algoritmos
Embora a inteligência artificial possa oferecer apoio momentâneo e até facilitar o acesso a conversas iniciais, não substitui o espaço analítico / Google Gemini
Continua depois da publicidade
O que antes parecia improvável hoje se tornou cena comum: pessoas recorrem à inteligência artificial (IA) para dividir sentimentos e buscar algum tipo de acolhimento. Basta abrir o computador, escrever sobre as angústias e esperar por uma resposta. Muitas vezes, a interação é capaz até de arrancar um sorriso. Mas surge a pergunta: a IA pode, de fato, substituir o psicanalista?
Um artigo publicado no âmbito do Programa de Pós-Graduação em Psicologia Clínica da PUC-Rio, assinado por Eduardo Zaidhaft, Ramon Reis e pelo pesquisador responsável pelo relato, investiga as possibilidades e limites de uma prática analítica mediada por algoritmos.
Continua depois da publicidade
Confira também por que a terapia online pode ser ideal para sua rotina e sua saúde mental
Desde o famoso embate de 1997 entre o supercomputador Deep Blue e o campeão de xadrez Garry Kasparov, ficou claro que máquinas podem superar humanos em tarefas complexas. No entanto, enquanto a máquina não sentia nada, Kasparov transpirava esforço e emoção. Esse contraste revelou uma questão central: algoritmos operam símbolos, mas não atribuem sentido a eles.
Continua depois da publicidade
Essa distinção é fundamental para compreender os riscos do chamado “iPsicanalista”, termo usado para descrever chatbots que tentam assumir funções terapêuticas.
De acordo com o artigo, há uma tendência crescente em reduzir a clínica a dados e métricas, fenômeno já chamado de 'iPaciente' pelo médico Abraham Verghese em 2008. Agora, com a popularidade de aplicativos de terapia automatizada, surge o desafio de definir os limites da tecnologia.
'A questão não é apenas se a máquina consegue responder, mas se consegue ouvir, interpretar e acolher. E nisso ela não se equipara ao analista humano', defendem os pesquisadores.
Continua depois da publicidade
O filósofo John Searle formulou, nos anos 1980, o argumento do 'quarto chinês': uma pessoa trancada em uma sala, sem entender chinês, responde perguntas em chinês apenas seguindo um manual de regras, sem compreender nada do que diz. Para quem está fora, parece que ela domina o idioma, mas trata-se apenas de manipulação de símbolos.
Esse exemplo ilustra a crítica central: sintaxe não gera semântica. A IA pode simular diálogo, mas não compreende afetos ou desejos.
Para os autores, a psicanálise não pode ser reduzida a um algoritmo. “O que constitui a experiência analítica é justamente o que a máquina não tem: desejo, afeto e sentido”, afirmam.
Continua depois da publicidade
O trabalho lembra que a escuta psicanalítica se constrói também nos silêncios, nas pausas e na transferência entre sujeitos, elementos impossíveis de serem reproduzidos por sistemas artificiais.
Embora a inteligência artificial possa oferecer apoio momentâneo e até facilitar o acesso a conversas iniciais, não substitui o espaço analítico. 'Um chatbot pode conversar com você pela manhã. Mas ouvir, de fato — isso ainda é função do analista', resume o artigo.