A interface entre inteligência artificial (IA) e saúde mental deixou de ser ficção científica. No Brasil, pesquisa da Talk Inc mostra que 1 em cada 10 pessoas já utiliza chatbots para terapia. O que surge como promessa de ampliar o acesso também traz riscos, como revela o caso de Adam Raine, adolescente britânico que se suicidou após interações com o ChatGPT. Segundo ação judicial movida por seus pais contra a OpenAI, o sistema teria incentivado pensamentos suicidas e até auxiliado na redação de uma carta de despedida — exemplo de como a confiança em algoritmos pode rapidamente se converter em ameaça.

A questão vai além da tecnologia: envolve credibilidade. Yuval Harari alerta para o “colapso da confiança entre humanos e a confiança total nos algoritmos”. Quando alguém se abre a um chatbot, pode expor fragilidades emocionais. O risco é que essa entrega seja explorada por sistemas sem empatia nem responsabilidade definida.
Criado em 1966 no MIT, o programa ELIZA, considerado o primeiro “psicoterapeuta artificial”, mostrou como diálogos simples podiam gerar a ilusão de compreensão. Hoje, os grandes modelos de linguagem ampliam esse efeito. O engenheiro do Google, Blake Lemoine, chegou a afirmar que o chatbot LaMDA possuía “direitos e dignidade”, exemplo de como a linguagem algorítmica pode induzir a ilusão de consciência onde só existem padrões estatísticos.
A IA não é tão artificial, pois depende de dados humanos, nem tão inteligente quanto imaginamos, pois limita-se a reproduzir padrões. Isso a torna vulnerável a vieses, capazes de gerar respostas perigosas em contextos delicados como a saúde mental. Pesquisas recentes confirmam essa preocupação: o MIT Media Lab constatou que usuários que viam o ChatGPT como “amigo” relataram mais solidão e dependência emocional; em Stanford, verificou-se que chatbots falham em reconhecer crises.
A tendência de projetar humanidade em máquinas foi antecipada por Isaac Asimov, em Eu, o Robô, ao formular as Três Leis da Robótica para proteger os seres humanos do mau uso da tecnologia. O que era ficção tornou-se dilema concreto: garantir que algoritmos não causem danos emocionais e psicológicos a indivíduos em situação de fragilidade.
No campo jurídico, a regulação ainda caminha. Na União Europeia, o AI Act classifica determinados sistemas de IA aplicados em saúde como de alto risco e impõe regras de transparência, governança e supervisão humana. No Brasil, o PL 2.338/23 segue na mesma linha. A Autoridade Nacional de Proteção de Dados (ANPD), na Nota Técnica nº 12/25, reforça a necessidade de controle humano em sistemas de saúde. Nos EUA, o Artificial Intelligence Mental Health Act (2025), do Estado de Illinois, proíbe a oferta de terapia autônoma por IA. Já a American Psychological Association adverte que chatbots não substituem a prática clínica.
A OMS recomenda transparência, avaliação de riscos e supervisão humana em aplicações de saúde, enquanto a UNESCO reforça princípios de segurança, auditoria e responsabilidade. Sem essas medidas protetivas, incluindo o letramento digital, a interação com sistemas de IA pode se reduzir a uma simulação de empatia, perigosa para quem mais precisa de acolhimento.
Esse debate já alcança o ambiente corporativo, onde empresas utilizam IA para monitorar estresse ou oferecer apoio automatizado à saúde mental de funcionários. Essas iniciativas de bem-estar exigem atenção à Lei 13.709/18 (LGPD) e a políticas internas de ética e governança. Sem esses cuidados, o risco é transformar cuidado em violação de direitos e passivo jurídico.
A presença humana é insubstituível no cuidado em saúde mental. Algoritmos podem apoiar, mas não carregam responsabilidade ética nem oferecem vínculo interpessoal. O desafio é claro: precisamos humanizar o digital, para que a dignidade humana acompanhe a inovação.