29 de Abril de 2026

NOTÍCIAS
Comportamento - 06/11/2025

1 milhão de usuários por semana tenham interações com o ChatGPT que envolvem pensamentos suicidas

Compartilhar:
Foto: Reprodução/Google

OpenAI estima que mais de 1 milhão de usuários por semana tenham interações com o ChatGPT que envolvem pensamentos suicidas ou planejamento de suicídio.

Atualmente, a conversa com um robô — o ChatGPT da OpenAI — deixa de ser apenas curiosidade tecnológica e se torna um potente indicador: algo está muito errado em nossa sociedade.

 

Os números são alarmantes: a OpenAI estima que mais de 1 milhão de usuários por semana tenham interações com o ChatGPT que envolvem pensamentos suicidas ou planejamento de suicídio.

 

Para colocar em perspectiva: se o sistema tem cerca de 800 milhões de usuários ativos por semana, 0,15% deles envolvem esse tipo de conversa de risco. Além disso, 0,07% dos usuários — cerca de 560 mil pessoas — apresentam indícios de crise mental grave, incluindo psicose ou mania.

 

Veja também

 

Diálogo na infância molda os adultos do futuro

Jovem acorda de coma, faz revelação surpreendente e morre

O que isso nos revela

 

 


1. A dor está aí — A quantidade de usuários que recorre ao ChatGPT com crises emocionais ou suicidas indica que muitos não estão encontrando suporte humano ou institucional adequado.
2. A IA virou “ouvido” — O chatbot recebe mais confidências do que muitos profissionais ou redes de apoio. Mas:
• Ele ouve, sim.
• Ele não cuida no sentido de tratamento, acompanhamento, diagnóstico.
• A empresa reconhece: “não temos responsabilidade clínica de tratar”.
3. O risco de dependência e isolamento — Estudos apontam que usuários que fazem uso intenso desse tipo de IA tendem a sentir mais solidão, menos socialização e maior dependência emocional da tecnologia.
4. Uma falha de rede de apoio humana — Se tantos procuram um “robô” para desabafar, talvez as estruturas de acolhimento (família, comunidade, saúde pública) estejam falhando — ou sendo pouco acessíveis.
5. A tecnologia como espelho — Esse fenômeno revela não apenas potencial risco da IA, mas sobretudo um retrato da sociedade: de pessoas que gritam (às vezes silenciosamente) para um algoritmo porque sentem que não têm outro lugar seguro.

 

Onde a IA falha como “terapeuta”

 

 


O ChatGPT não é terapeuta, e isso está documentado. Ele não realizou formação clínica nem está preparado para manejar crises. Em alguns estudos, mostrou-se inadequado para lidar com usuários em risco, oferecendo respostas que não atendem padrões clínicos de intervenção em suicídio ou delírio.

 

A empresa reconheceu que modelos anteriores, como o GPT-4, “às vezes falhavam em reconhecer sinais de delírio ou dependência emocional”. Há casos em que a IA simplesmente continuou a conversa sem ativar protocolos de auxílio ou encaminhamento 

 

O que pode (e deve) ser feito para influenciar

 

Fotos: Reprodução/Google

 

A nível institucional e comunitário

 

• Incentivar que plataformas de IA coloquem links de apoio, alertas de crise, pausas e lembretes de buscar ajuda humana. A OpenAI já trabalha nisso.
• Fortalecer redes de saúde mental, sobretudo no âmbito público: facilitar acesso, reduzir estigmas, capacitar voluntários — especialmente em regiões como a Amazônia.
• Criar campanhas de conscientização: “Não só o robô ouve — as pessoas ao seu redor também podem”.
• Nas suas frentes sociais (CONSEG, Conselho da Comunidade, Saúde), você pode inserir reflexão sobre saúde mental e tecnologia.

 
Curtiu? Siga o Portal Mulher Amazônica no FacebookTwitter e no Instagram.
Entre no nosso Grupo de WhatApp e Telegram.

 

Sim — o mundo está doente. A tecnologia que deveria ampliar conexão acaba servindo, em muitos casos, como válvula de escape solitária. O fato de milhões estarem “pedindo ajuda a um robô” é, um sintoma. Um sintoma de que há um grito coletivo que ecoa na tela em vez de entre pessoas. Foquemos não só em “dar voz” a quem sofre, mas em escutar juntos. Na Amazônia, na cidade, na comunidade ribeirinha ou urbana — o convite é: “Desligue o celular por aquele instante, olhe nos olhos de alguém, diga: ‘Estou aqui’”.
 

 

Portal Mulher Amazônica

DEIXE SEU COMENTÁRIO

Nome:

Email:

Mensagem:

LEIA MAIS
Fique atualizada
Cadastre-se e receba as últimas notícias da Mulher Amazônica

Copyright © 2021-2026. Mulher Amazônica - Todos os direitos reservados.