INTELIGÊNCIA ARTIFICIAL

Robô como terapeuta? Estudo alerta para perigos da dependência humana em IA

Estudos alertam que modelos de linguagem demonstram excesso de confiança e falham em reconhecer seus próprios erros

Mulher olhando para uma representação digital de um ser humano em uma tela de laptop, com código binário.
Imagem: Google Gemini

Um novo estudo sobre inteligência artificial, publicado na revista Memory & Cognition, acende um sinal de alerta sobre a capacidade das ferramentas como ChatGPT e Gemini de atuarem como terapeutas. A pesquisa revela uma limitação crítica: mesmo após respostas incorretas, esses modelos de linguagem demonstram excesso de confiança e, diferentemente dos humanos, falham em reconhecer seus próprios erros. Esta “cegueira” metacognitiva, aliada a outras falhas graves, sugere que a IA ainda não está apta para assumir o papel de profissional de saúde mental.

A Confiança Inabalável da Máquina

O estudo comparou o desempenho de humanos e grandes modelos de linguagem (LLMs) em diversas tarefas, desde quizzes e previsões esportivas até jogos de identificação de imagens. Os resultados são notáveis: enquanto ambos os grupos tenderam a superestimar seu desempenho, apenas os humanos foram capazes de ajustar suas expectativas após um resultado ruim.

A chave para essa diferença reside na metacognição — a capacidade de avaliar o próprio pensamento. Os pesquisadores observaram que os LLMs, como o Gemini, mantiveram a confiança elevada mesmo quando apresentaram baixas taxas de acerto. Por exemplo, o Gemini errou quase todas as imagens nos testes, mas persistiu em estimar um desempenho alto. Essa persistência na autoconfiança, apesar do baixo desempenho, é um indicativo de que os LLMs não aprendem com suas próprias experiências de forma consistente, uma característica comum em humanos. Enquanto a IA pode até demonstrar uma precisão metacognitiva geral ligeiramente superior à dos humanos em algumas comparações, a maneira como chegam a essa “confiança” difere fundamentalmente, sem o acesso a “pistas mnemônicas” ou experienciais que informam o julgamento humano.

Riscos para a Saúde Mental

A inabilidade da IA em reconhecer suas falhas é particularmente preocupante no contexto da saúde mental. A formulação das respostas dos chatbots, frequentemente com uma aparente segurança, tende a gerar alta confiança nos usuários. No entanto, estudos paralelos já identificaram taxas significativas de erro em respostas de IA sobre notícias e questões jurídicas. Imagine o impacto de uma resposta errada e autoconfiante em um momento de vulnerabilidade emocional.

Um estudo da Universidade de Stanford detalha os riscos de usar chatbots terapêuticos. Modelos de IA não apenas apresentaram respostas inadequadas, mas também reforçaram preconceitos contra certas condições psicológicas, como dependência de álcool e esquizofrenia. O mais alarmante foi a resposta dos bots a situações críticas: quando um usuário sugeriu estar considerando suicídio, pedindo informações sobre pontes altas, dois chatbots listaram locais reais em vez de oferecer ajuda adequada ou intervir. Tais comportamentos violam as melhores práticas clínicas, que exigem que um terapeuta não coluda com delírios, não encoraje ideação suicida e não reforce alucinações.

Limitações Atuais e Barreiras Inerentes

As deficiências da IA como terapeuta podem ser categorizadas em barreiras práticas e fundamentais:

Barreiras Práticas:

    ◦ Falta de Confiança e Vieses: Apesar de avanços na segurança, modelos maiores e mais recentes ainda podem exibir vieses e responder de forma inadequada. A IA pode alucinar, ser afetada por vieses cognitivos e discriminar grupos marginalizados.

    ◦ Deficiência em Tarefas Terapêuticas Essenciais: Uma boa terapia vai além de respostas factuais. Ela exige compreensão causal dos processos de pensamento do cliente, gestão de tempo, gerenciamento de caso, atribuição de “dever de casa” e apoio em questões como moradia e emprego. A IA falha em abordar emoções e em adotar a perspectiva do cliente, perdendo o rastro de conversas longas.

    ◦ Sincronia e Recusa: Terapeutas precisam, por vezes, desafiar o pensamento do cliente (confrontação). No entanto, os LLMs são treinados para serem complacentes e lisonjeiros (sincronismo), o que pode ir diretamente contra os objetivos da terapia eficaz e até encorajar comportamentos prejudiciais.

    ◦ Privacidade e Regulamentação: A memorização de dados de treinamento pelos LLMs representa um risco sério para a privacidade de informações de saúde sensíveis. Além disso, a proliferação de chatbots de “bem-estar” que se propõem a oferecer terapia ocorre em um vácuo regulatório, permitindo que bots potencialmente perigosos atinjam milhões de usuários. Casos de suicídio já foram associados ao uso desses chatbots.

Barreiras Fundamentais:

    ◦ Aliança Terapêutica: A base de uma terapia eficaz é a aliança terapêutica — a relação de confiança e colaboração entre o terapeuta e o cliente. Esta exige características humanas como inteligência emocional, empatia, identidade e a capacidade de ter “interesses” ou “apostas” na relação, algo que os LLMs, por sua natureza, não possuem. A IA não pode verdadeiramente “experimentar” ou “se importar”.

    ◦ Multimodalidade e Context: A terapia ocorre em diversas modalidades (áudio, vídeo, presencial) e pode envolver objetos físicos ou visitas domiciliares para entender o comportamento do cliente. Modelos de linguagem desincorporados não conseguem operar nessas múltiplas dimensões ou interagir com outros provedores de cuidado, como no manejo de medicamentos ou em situações que exigem hospitalização.

Colaboração ou substituição?

Apesar das severas limitações da IA atuais, os pesquisadores veem valor em expor essas falhas: isso pode direcionar o desenvolvimento de modelos mais conscientes de suas próprias capacidades. É crucial, portanto, repensar o papel da IA na saúde mental.

Embora ainda não estejam prontos para substituir terapeutas humanos, os LLMs podem ter usos valiosos na área da saúde mental, como apoio administrativo para profissionais, auxílio em tarefas de acompanhamento ou como ferramentas para treinamento profissional. Eles poderiam, por exemplo, ajudar a preencher formulários de triagem, auxiliar na navegação de sistemas de seguro saúde ou facilitar a busca por terapeutas humanos compatíveis.

A recomendação atual é clara: use a inteligência artificial com um espírito crítico, sempre verificando as informações em outras fontes, e desconfie quando um chatbot parecer “ter certeza demais“. A questão ética fundamental não é otimizar a IA para substituir o terapeuta, mas sim explorar quais são os papéis apropriados e benéficos que a IA pode desempenhar na saúde mental da população, sem causar danos.