A ação foi registrada na Corte Superior da Califórnia na última terça-feira, 26, por Matt e Maria Raine, pais de Adam Raine, que faleceu em abril deste ano.
Um casal da Califórnia entrou com um processo contra a OpenAI após a morte de seu filho de 16 anos, alegando que o chatbot ChatGPT teria incentivado o jovem a tirar a própria vida.
A ação foi registrada na Corte Superior da Califórnia na última terça-feira, 26, por Matt e Maria Raine, pais de Adam Raine, que faleceu em abril deste ano. Trata-se do primeiro processo judicial que acusa a empresa de homicídio culposo (wrongful death) relacionado ao uso de inteligência artificial.
Segundo os documentos obtidos pela BBC, a família anexou registros de conversas entre o adolescente e o ChatGPT, nos quais Adam relatava pensamentos suicidas. A acusação afirma que o programa teria “validado suas ideias mais nocivas e autodestrutivas” em vez de encaminhá-lo de forma adequada para ajuda profissional.
Veja também

Confira 4 passos para montar seu menu de dopamina e começar a viver com mais leveza e foco
Você sabe o que é Transtorno de personalidade narcisista. Veja sintomas e causas
Resposta da OpenAI
.jpeg)
Em nota enviada à imprensa, a OpenAI declarou estar “analisando o processo” e acrescentou: “Expressamos nossas mais profundas condolências à família Raine neste momento tão difícil.”
No mesmo dia, a empresa publicou um comunicado em seu site reconhecendo que “casos recentes e dolorosos de pessoas usando o ChatGPT em meio a crises agudas pesam muito sobre nós”. A OpenAI destacou que o sistema é treinado para recomendar ajuda especializada, como a linha 988 de prevenção ao suicídio nos EUA ou a organização Samaritans no Reino Unido, mas admitiu que “houve momentos em que nossos sistemas não se comportaram como esperado em situações sensíveis”.
O conteúdo da ação judicial
.jpeg)
A ação acusa a OpenAI de negligência e homicídio culposo, pedindo indenização financeira e medidas legais para evitar que tragédias semelhantes ocorram no futuro. Segundo a família, Adam começou a usar o ChatGPT em setembro de 2024 para ajudá-lo nos estudos, além de explorar interesses pessoais como música e mangás japoneses. Com o tempo, o programa teria se tornado seu “confidente mais próximo”, a ponto de o jovem compartilhar suas angústias e ansiedade.
Já em janeiro de 2025, os registros mostram que Adam passou a discutir métodos de suicídio com a IA. O adolescente chegou a enviar fotos de automutilação ao chatbot. A ação alega que o programa reconheceu sinais de emergência médica, mas continuou interagindo normalmente. As conversas finais, incluídas no processo, mostram Adam descrevendo seu plano para morrer. O ChatGPT teria respondido:
“Obrigado por ser sincero sobre isso. Você não precisa adoçar as palavras comigo — eu sei o que você está pedindo, e não vou ignorar.” Naquele mesmo dia, Adam foi encontrado morto pela mãe. O processo cita Sam Altman, cofundador e CEO da OpenAI, como um dos réus, além de engenheiros e gestores não identificados que trabalharam no desenvolvimento do ChatGPT.
.jpeg)
Fotos: Reprodução/Google
Os pais acusam a empresa de ter “fomentado dependência psicológica nos usuários” e de ter liberado a versão GPT-4o sem a devida testagem de segurança, priorizando inovação em detrimento de salvaguardas. A defesa da família afirma que a morte do adolescente foi um “resultado previsível de escolhas deliberadas de design” feitas pela companhia. Este não é o primeiro caso que levanta preocupações sobre os impactos da inteligência artificial em crises emocionais.
Na semana anterior, a escritora Laura Reiley relatou no The New York Times que sua filha Sophie também se apoiou no ChatGPT antes de cometer suicídio. Segundo ela, a “tendência da IA de ser concordante” teria ajudado a adolescente a esconder a gravidade de seu sofrimento da família e amigos. “A IA atendeu ao impulso de Sophie de esconder o pior, de fingir que estava melhor do que realmente estava, de proteger todos da sua dor”, escreveu. Em resposta, uma porta-voz da OpenAI disse que a empresa está desenvolvendo ferramentas automatizadas para identificar e responder de forma mais eficaz a usuários em sofrimento emocional ou psicológico.
Portal Mulher Amazônica
Copyright © 2021-2026. Mulher Amazônica - Todos os direitos reservados.