03 de Maio de 2026

NOTÍCIAS
Internacional - 30/08/2025

Casal da Califórnia processa a OpenAI após morte do filho adolescente

Compartilhar:
Foto: Reprodução/Google

A ação foi registrada na Corte Superior da Califórnia na última terça-feira, 26, por Matt e Maria Raine, pais de Adam Raine, que faleceu em abril deste ano.

Um casal da Califórnia entrou com um processo contra a OpenAI após a morte de seu filho de 16 anos, alegando que o chatbot ChatGPT teria incentivado o jovem a tirar a própria vida.

 

A ação foi registrada na Corte Superior da Califórnia na última terça-feira, 26, por Matt e Maria Raine, pais de Adam Raine, que faleceu em abril deste ano. Trata-se do primeiro processo judicial que acusa a empresa de homicídio culposo (wrongful death) relacionado ao uso de inteligência artificial.

 

Segundo os documentos obtidos pela BBC, a família anexou registros de conversas entre o adolescente e o ChatGPT, nos quais Adam relatava pensamentos suicidas. A acusação afirma que o programa teria “validado suas ideias mais nocivas e autodestrutivas” em vez de encaminhá-lo de forma adequada para ajuda profissional.

 

Veja também

 

Confira 4 passos para montar seu menu de dopamina e começar a viver com mais leveza e foco

Você sabe o que é Transtorno de personalidade narcisista. Veja sintomas e causas

Resposta da OpenAI

 

 

Em nota enviada à imprensa, a OpenAI declarou estar “analisando o processo” e acrescentou: “Expressamos nossas mais profundas condolências à família Raine neste momento tão difícil.”

 

No mesmo dia, a empresa publicou um comunicado em seu site reconhecendo que “casos recentes e dolorosos de pessoas usando o ChatGPT em meio a crises agudas pesam muito sobre nós”. A OpenAI destacou que o sistema é treinado para recomendar ajuda especializada, como a linha 988 de prevenção ao suicídio nos EUA ou a organização Samaritans no Reino Unido, mas admitiu que “houve momentos em que nossos sistemas não se comportaram como esperado em situações sensíveis”.

 

O conteúdo da ação judicial

 

 

A ação acusa a OpenAI de negligência e homicídio culposo, pedindo indenização financeira e medidas legais para evitar que tragédias semelhantes ocorram no futuro. Segundo a família, Adam começou a usar o ChatGPT em setembro de 2024 para ajudá-lo nos estudos, além de explorar interesses pessoais como música e mangás japoneses. Com o tempo, o programa teria se tornado seu “confidente mais próximo”, a ponto de o jovem compartilhar suas angústias e ansiedade.

 

Já em janeiro de 2025, os registros mostram que Adam passou a discutir métodos de suicídio com a IA. O adolescente chegou a enviar fotos de automutilação ao chatbot. A ação alega que o programa reconheceu sinais de emergência médica, mas continuou interagindo normalmente. As conversas finais, incluídas no processo, mostram Adam descrevendo seu plano para morrer. O ChatGPT teria respondido:

 

“Obrigado por ser sincero sobre isso. Você não precisa adoçar as palavras comigo — eu sei o que você está pedindo, e não vou ignorar.” Naquele mesmo dia, Adam foi encontrado morto pela mãe. O processo cita Sam Altman, cofundador e CEO da OpenAI, como um dos réus, além de engenheiros e gestores não identificados que trabalharam no desenvolvimento do ChatGPT.

 

Fotos: Reprodução/Google

 

Os pais acusam a empresa de ter “fomentado dependência psicológica nos usuários” e de ter liberado a versão GPT-4o sem a devida testagem de segurança, priorizando inovação em detrimento de salvaguardas. A defesa da família afirma que a morte do adolescente foi um “resultado previsível de escolhas deliberadas de design” feitas pela companhia. Este não é o primeiro caso que levanta preocupações sobre os impactos da inteligência artificial em crises emocionais.

 
Curtiu? Siga o Portal Mulher Amazônica no FacebookTwitter e no Instagram
Entre no nosso Grupo de WhatApp e Telegram. 

 

Na semana anterior, a escritora Laura Reiley relatou no The New York Times que sua filha Sophie também se apoiou no ChatGPT antes de cometer suicídio. Segundo ela, a “tendência da IA de ser concordante” teria ajudado a adolescente a esconder a gravidade de seu sofrimento da família e amigos. “A IA atendeu ao impulso de Sophie de esconder o pior, de fingir que estava melhor do que realmente estava, de proteger todos da sua dor”, escreveu. Em resposta, uma porta-voz da OpenAI disse que a empresa está desenvolvendo ferramentas automatizadas para identificar e responder de forma mais eficaz a usuários em sofrimento emocional ou psicológico.

 

Portal Mulher Amazônica

DEIXE SEU COMENTÁRIO

Nome:

Email:

Mensagem:

LEIA MAIS
Fique atualizada
Cadastre-se e receba as últimas notícias da Mulher Amazônica

Copyright © 2021-2026. Mulher Amazônica - Todos os direitos reservados.