EDITORIAL: Escuta atenta e políticas públicas

“A tecnologia pode ampliar horizontes, mas não pode substituir o vínculo humano. Cuidar da saúde mental exige políticas públicas robustas, profissionais qualificados e instituições fortalecidas. É preciso garantir que nenhuma inovação tecnológica custe a dignidade, a segurança ou a vida de quem mais precisa de proteção. A vida está acima de qualquer algoritmo”, escreve Francilene Procópio Garcia, presidente da SBPC

WhatsApp Image 2025-09-05 at 14.52.29Desde 2014, setembro é o mês de reforçar o pacto de solidariedade com pessoas que sofrem profundamente, muitas vezes um sofrimento tão solitário e profundo, que cessam-se todas as luzes de esperança. Também é um momento de refletirmos sobre que políticas estamos implementando para proteger a saúde mental de nossa população e promover um ambiente digno e saudável.

Dados do Ministério da Saúde e da Organização Mundial da Saúde (OMS) apontam que no Brasil, a cada dia, mais de 30 pessoas tiram a própria vida. São mais de 11 mil casos registrados por ano — o que representa uma taxa de aproximadamente 6,1 mortes por 100 mil habitantes. Jovens em idade escolar, especialmente entre 15 e 29 anos, trabalhadores informais/precários e população idosa são os mais afetados.

A relação entre o uso das redes sociais e o agravamento de quadros de sofrimento psíquico é um fator que cada vez mais ganha peso. Nas últimas semanas, vieram à tona casos de adolescentes que cometeram suicídio após interações com ferramentas de inteligência artificial, como o ChatGPT, em consultas que simulavam aconselhamento terapêutico. Esses episódios revelam o risco de recorrer a tecnologias não regulamentadas em contextos de extrema fragilidade emocional. O que parece acolhimento pode ser, na prática, uma fabricação algorítmica sem escuta, sem vínculo e sem responsabilização.

Os episódios recém-divulgados não aconteceram no Brasil, mas o uso de IA para auxiliar pessoas em sofrimento mental vem crescendo. Muito disso é devido aos altos custos dos profissionais humanos, somado aos estigmas que ainda permanecem em nossa sociedade. O fenômeno não é pequeno: estudos indicam que cerca de 10% dos brasileiros já usaram essas ferramentas como espaço de desabafo. Nos Estados Unidos, 72% dos adolescentes afirmam ter usado chatbots como companhia, muitos deles buscando apoio emocional.

Começamos a caminhar no sentido de uma construção de um ambiente digital mais seguro e responsável para as novas gerações, com a célere aprovação, no Senado Federal, no último dia 27 de agosto, do Projeto de Lei 2.628/2022. A proposta, que aguarda a sanção presidencial, estabelece regras específicas para a proteção de crianças e adolescentes em ambientes digitais. Foi uma resposta rápida a uma denúncia de um influenciador digital, Felca, que viralizou nas redes sociais e mostrou a urgência de se impor regras claras nesse ambiente digital que ainda parece uma terra-sem-lei.

Porém, essas denúncias envolvendo pseudoterapias com inteligência artificial e seus desfechos trágicos mostram que o desafio vai além das redes sociais. Revelam que ainda estamos nos primeiros passos no estabelecimento de marcos éticos, científicos e legais para o desenvolvimento e uso de tecnologias com impacto direto sobre o bem-estar psicológico. O sofrimento humano não pode ser automatizado nem terceirizado. É responsabilidade do Estado, da sociedade, garantir que o avanço tecnológico seja acompanhado de salvaguardas robustas para que nenhuma inovação custe a dignidade, a segurança ou a vida de quem mais precisa de proteção. Também é dever do Estado assegurar o que deveria ser um direito básico, mas que ainda é privilégio de poucos: acesso amplo a profissionais qualificados de saúde mental, psicólogos, psiquiatras e equipes devidamente estruturadas no sistema público.

Existem estudos que indicam pontos positivos na democratização dessas ferramentas com tal finalidade, porém, a Inteligência Artificial ainda está muito longe de compreender sentimentos complexos, nuances que possam indicar riscos potenciais, ou até mesmo a simples empatia. Os riscos do uso indiscriminado de tecnologias não reguladas para fins sensíveis colocam uma urgência para estabelecer limites éticos, legais e científicos no desenvolvimento e aplicação dessas ferramentas. É sempre bom lembrar que a humanidade desenvolveu ferramentas para potencializar suas habilidades, mas jamais essas ferramentas trabalham por si só, ou substituem o comando ou o juízo humano.

O perigo está na ilusão de cuidado. Sistemas de IA foram projetados para responder com base em padrões de linguagem, não para compreender sentimentos humanos. Em vez de questionar ou confrontar pensamentos distorcidos, como um profissional faria, muitas vezes a IA apenas reforça o que o usuário quer ouvir — inclusive em situações de crise. Os casos reportados recentemente mostram justamente que interações com IA podem ter alimentado ideias suicidas ou reforçado padrões de autoagressão.

Não é coincidência que o debate atual resgate elementos da ficção científica. Desde Metrópolis, de 1927, quando o robô que imitava a figura humana foi usado para manipular e incitar o caos, passando por Blade RunnerO Exterminador do Futuro e Matrix, essas obras alertam sobre a perda de controle sobre nossas próprias criações. O medo ganhou novas formas: se antes era o da destruição física pela máquina, muito alimentada pelo contexto de Guerras (primeira e segunda GM e Guerra Fria), hoje é o da dissolução silenciosa da subjetividade, da empatia, do vínculo humano, substituído por entorpecentes respostas sintéticas e previsíveis. A falsa Maria, de Metrópolis, já simbolizava uma IA sedutora e manipuladora. Um século depois, os dilemas continuam.

A ficção científica também foi o terreno das advertências do escritor Isaac Asimov, autor das “Três Leis da Robótica”, que impedem o robô de causar dano a humanos, exigem obediência às ordens (desde que não infrinjam a primeira lei) e permitem a autopreservação, desde que compatível com as anteriores. Posteriormente, ele acrescentou a “Lei Zero”, que proíbe qualquer ação que prejudique a humanidade como um todo. Talvez essa seja a régua ética que precisamos aplicar ao uso da inteligência artificial em áreas sensíveis como a saúde mental.

A campanha Setembro Amarelo deste ano chama a atenção para a importância do diálogo, da escuta atenta e empática. Para isso, precisamos de políticas públicas que integrem educação, cultura e trabalho, que ampliem o acesso à saúde mental e que fortaleçam as instituições públicas desse campo.

A Sociedade Brasileira para o Progresso da Ciência defende que a inteligência artificial seja tratada como o que é: uma ferramenta, e não um substituto das relações humanas. O cuidado com a saúde mental exige informação de qualidade, combate ao estigma e acesso a alternativas reais de acolhimento. Também é essencial manter um debate contínuo sobre os limites éticos da tecnologia e os riscos das pseudoterapias com IA.

A tecnologia pode ampliar horizontes, mas não pode substituir o vínculo humano. Cuidar da saúde mental exige políticas públicas robustas, profissionais qualificados e instituições fortalecidas. É preciso garantir que nenhuma inovação tecnológica custe a dignidade, a segurança ou a vida de quem mais precisa de proteção. A vida está acima de qualquer algoritmo.

Se você ou alguém que você conhece está passando por um momento difícil, busque ajuda. O CVV – Centro de Valorização da Vida atende 24h, gratuitamente e com sigilo, pelo telefone 188 ou em cvv.org.br.

 

Francilene Garcia, presidente da Sociedade Brasileira para o Progresso da Ciência – SBPC

 

Veja as notas do Especial da Semana – Setembro amarelo e pseudoterapias com IA

Diário da Manhã, 4/09/2025 – Setembro Amarelo alerta para os efeitos das redes na prevenção ao suicídio

Paula Laboissière – Agência Brasil – 02/09/2025 – Mais de 1 bilhão de pessoas vivem com transtornos mentais, revela OMS

Cactus Instituto, 06/011/2024 – Panorama da Saúde Mental: 45% dos entrevistados consideram que redes sociais afetam negativamente o bem-estar psicológico

Folha de S. Paulo, 26/08/2025 – Adolescentes estão usando IA como terapeutas e isso é alarmante

Tilt/UOL – Terapia com IA é como refrigerante, diz Dunker: ‘Você bebe e só sente sede’

Tâmara Freire – Repórter da Agência Brasil,18/05/2025 – “Sessão de terapia” no ChatGPT oferece riscos e preocupa especialistas

Estadão, 11/12/2024 – Brasileiros usam ChatGPT para fazer ‘terapia’; especialistas alertam para riscos

Exame, 26/05/2025 – Como o ChatGPT virou o maior terapeuta do mundo (e por que isso deveria nos preocupar)

O Globo, 22/06/2025 – Terapia por IA tem riscos, mas pode ser benéfica se usada sob controle, dizem psicólogos

CNN Brasil, 24/08/25 – “Psicose de IA”: fenômeno preocupa terapeutas do mundo inteiro

Olhar Digital, 02/09/2025 – Os jovens que tiraram a própria vida após conversas com o ChatGPT

G1, 26/08/2025 – Pais culpam ChatGPT por suicídio do filho e processam OpenAI

Nexo, 30/08/2025 – Como suicídios geram um debate sobre a responsabilidade da IA

G1, 02/09/2025 – ChatGPT terá recurso de proteção de adolescentes após ser acusado de contribuir com suicídio de jovem nos EUA

O Globo, 02/09/2025  – Após suicídio nos EUA, OpenAI anuncia medidas para proteger adolescentes no ChatGPT

Estadão, 03/09/2025 – O ChatGPT foi treinado para te agradar, e isso pode custar sua saúde mental

Jornal de Brasília, 03/09/2025 – Psiquiatras lançam cartilha para ensinar influenciadores a falar sobre saúde mental e suicídio

Correio Braziliense, 15/05/2025 – Submundo digital é ameaça aos jovens