OpenAI estima que mais de 1 milhão de usuários por semana tenham interações com o ChatGPT que envolvem pensamentos suicidas ou planejamento de suicídio.
Atualmente, a conversa com um robô — o ChatGPT da OpenAI — deixa de ser apenas curiosidade tecnológica e se torna um potente indicador: algo está muito errado em nossa sociedade.
Os números são alarmantes: a OpenAI estima que mais de 1 milhão de usuários por semana tenham interações com o ChatGPT que envolvem pensamentos suicidas ou planejamento de suicídio.
Para colocar em perspectiva: se o sistema tem cerca de 800 milhões de usuários ativos por semana, 0,15% deles envolvem esse tipo de conversa de risco. Além disso, 0,07% dos usuários — cerca de 560 mil pessoas — apresentam indícios de crise mental grave, incluindo psicose ou mania.
Veja também

Diálogo na infância molda os adultos do futuro
Jovem acorda de coma, faz revelação surpreendente e morre
O que isso nos revela
.jpeg)
1. A dor está aí — A quantidade de usuários que recorre ao ChatGPT com crises emocionais ou suicidas indica que muitos não estão encontrando suporte humano ou institucional adequado.
2. A IA virou “ouvido” — O chatbot recebe mais confidências do que muitos profissionais ou redes de apoio. Mas:
• Ele ouve, sim.
• Ele não cuida no sentido de tratamento, acompanhamento, diagnóstico.
• A empresa reconhece: “não temos responsabilidade clínica de tratar”.
3. O risco de dependência e isolamento — Estudos apontam que usuários que fazem uso intenso desse tipo de IA tendem a sentir mais solidão, menos socialização e maior dependência emocional da tecnologia.
4. Uma falha de rede de apoio humana — Se tantos procuram um “robô” para desabafar, talvez as estruturas de acolhimento (família, comunidade, saúde pública) estejam falhando — ou sendo pouco acessíveis.
5. A tecnologia como espelho — Esse fenômeno revela não apenas potencial risco da IA, mas sobretudo um retrato da sociedade: de pessoas que gritam (às vezes silenciosamente) para um algoritmo porque sentem que não têm outro lugar seguro.
Onde a IA falha como “terapeuta”
.jpeg)
O ChatGPT não é terapeuta, e isso está documentado. Ele não realizou formação clínica nem está preparado para manejar crises. Em alguns estudos, mostrou-se inadequado para lidar com usuários em risco, oferecendo respostas que não atendem padrões clínicos de intervenção em suicídio ou delírio.
A empresa reconheceu que modelos anteriores, como o GPT-4, “às vezes falhavam em reconhecer sinais de delírio ou dependência emocional”. Há casos em que a IA simplesmente continuou a conversa sem ativar protocolos de auxílio ou encaminhamento
O que pode (e deve) ser feito para influenciar
.jpeg)
Fotos: Reprodução/Google
A nível institucional e comunitário
• Incentivar que plataformas de IA coloquem links de apoio, alertas de crise, pausas e lembretes de buscar ajuda humana. A OpenAI já trabalha nisso.
• Fortalecer redes de saúde mental, sobretudo no âmbito público: facilitar acesso, reduzir estigmas, capacitar voluntários — especialmente em regiões como a Amazônia.
• Criar campanhas de conscientização: “Não só o robô ouve — as pessoas ao seu redor também podem”.
• Nas suas frentes sociais (CONSEG, Conselho da Comunidade, Saúde), você pode inserir reflexão sobre saúde mental e tecnologia.
Sim — o mundo está doente. A tecnologia que deveria ampliar conexão acaba servindo, em muitos casos, como válvula de escape solitária. O fato de milhões estarem “pedindo ajuda a um robô” é, um sintoma. Um sintoma de que há um grito coletivo que ecoa na tela em vez de entre pessoas. Foquemos não só em “dar voz” a quem sofre, mas em escutar juntos. Na Amazônia, na cidade, na comunidade ribeirinha ou urbana — o convite é: “Desligue o celular por aquele instante, olhe nos olhos de alguém, diga: ‘Estou aqui’”.
Portal Mulher Amazônica
Copyright © 2021-2026. Mulher Amazônica - Todos os direitos reservados.