Rio de Janeiro, 03 de Setembro de 2025

OpenAI adicionará controles parentais após morte de adolescente

Arquivado em:
Quarta, 03 de Setembro de 2025 às 12:06, por: CdB

O chatbot da empresa teria auxiliado um jovem dos EUA a cometer suicídio, segundo uma ação judicial que tramita em um tribunal da Califórnia.

Por Redação, com CartaCapital – de São Francisco

A empresa americana de inteligência artificial OpenAI anunciou na terça-feira que adicionará controles parentais ao seu chatbot ChatGPT, uma semana após um casal americano afirmar que o sistema incentivou seu filho adolescente a cometer suicídio.

OpenAI adicionará controles parentais após morte de adolescente | ChatGPT anunciou que adotará medidas de controle parental
ChatGPT anunciou que adotará medidas de controle parental

“No próximo mês, os pais poderão (…) vincular sua conta à conta do filho adolescente” e “controlar como o ChatGPT responde ao adolescente com regras de comportamento adequadas à idade”, explicou a empresa de IA generativa em seu blog.

Os pais também receberão notificações do ChatGPT “quando o sistema detectar que o adolescente está em um momento de angústia aguda”, acrescentou a OpenAI.

Matthew e Maria Raine afirmam na ação apresentada na segunda-feira em um tribunal do estado da Califórnia que o ChatGPT cultivou uma relação íntima com seu filho Adam por vários meses entre 2024 e 2025, antes de sua morte.

A denúncia alega que em sua conversa final, em 11 de abril de 2025, o ChatGPT ajudou Adam a roubar vodca de seus pais e lhe forneceu uma análise técnica sobre um nó corrediço com o qual confirmou que “poderia potencialmente enforcar um ser humano”.

Adam foi encontrado morto horas depois usando esse método.

– Quando uma pessoa usa o ChatGPT realmente sente que está conversando com algo do outro lado – disse a advogada Melodi Dincer, que ajudou a preparar a ação legal.

– Essas são as mesmas características que poderiam levar alguém como Adam, com o tempo, a começar a compartilhar cada vez mais sobre sua vida pessoal e, em última análise, a buscar conselhos e orientação deste produto que basicamente parece ter todas as respostas – afirmou Dincer.

A advogada disse que a publicação no blog da OpenAI anunciando os controles parentais e outras medidas de segurança é “genérica” e carece de detalhes.

– Realmente é o mínimo, e definitivamente sugere que muitas medidas de segurança (simples) poderiam ter sido implementadas – acrescentou.

– Resta ver se farão o que dizem que farão e quão eficaz será no geral.

Chatbots de IA

O caso dos Raine foi apenas o mais recente em uma série de incidentes nos quais pessoas foram incentivadas por chatbots de IA a seguir pensamentos delirantes ou prejudiciais, o que levou a OpenAI a anunciar que reduziria a “bajulação” dos modelos aos usuários.

“Continuamos melhorando em como nossos modelos reconhecem e respondem a sinais de angústia mental e emocional”, disse a OpenAI na terça-feira.

Edições digital e impressa
 
 

 

 

Jornal Correio do Brasil - 2025

 

Utilizamos cookies e outras tecnologias. Ao continuar navegando você concorda com nossa política de privacidade.

Concordo