Rio de Janeiro, 17 de Setembro de 2025

Pais pressionam Senado dos EUA para proteger crianças de chatbots de IA

Arquivado em:
Quarta, 17 de Setembro de 2025 às 12:14, por: CdB

Os chatbots “precisam de algum senso de moralidade incorporado a eles”, disse Matthew Raine, que processou a OpenAI após a morte de seu filho Adam por suicídio na Califórnia.

Por Redação, com Reuters – de Washington

Três pais cujos filhos morreram ou foram hospitalizados depois de interagir com chatbots de inteligência artificial pediram ao Congresso dos Estados Unidos que regulamente os chatbots de IA na terça-feira, em uma audiência no Senado dos EUA sobre os danos causados às crianças que usam a tecnologia.

Pais pressionam Senado dos EUA para proteger crianças de chatbots de IA | Senado dos EUA é cobrado por pais sobre riscos de IA a crianças
Senado dos EUA é cobrado por pais sobre riscos de IA a crianças

Os chatbots “precisam de algum senso de moralidade incorporado a eles”, disse Matthew Raine, que processou a OpenAI após a morte de seu filho Adam por suicídio na Califórnia, depois de receber instruções detalhadas de automutilação do ChatGPT.

– O problema é sistêmico e não acredito que eles não consigam consertá-lo – disse Raine, acrescentando que o ChatGPT fecha rapidamente outras linhas de perguntas que não envolvam automutilação.

A OpenAI disse que pretende melhorar as proteções do ChatGPT, que podem se tornar menos confiáveis em interações longas. Na terça-feira, a empresa disse que planeja começar a prever a idade dos usuários para direcionar as crianças para uma versão mais segura do chatbot.

O senador Josh Hawley, republicano do Missouri, convocou a audiência. Hawley lançou uma investigação sobre a Meta Platforms no mês passado, depois que a Reuters informou que as políticas internas da empresa permitiam que seus chatbots “envolvessem uma criança em conversas românticas ou sensuais”.

Meta

A Meta foi convidada a testemunhar na audiência e se recusou, disse o gabinete de Hawley. A empresa disse que os exemplos relatados pela Reuters estavam errados e foram removidos.

Megan Garcia, que processou a Character.AI por interações que, segundo ela, levaram ao suicídio de seu filho Sewell, também testemunhou na audiência.

– O Congresso pode começar com a regulamentação para evitar que as empresas testem produtos em nossos filhos – disse Garcia.

O Congresso deve proibir as empresas de permitir que os chatbots se envolvam em conversas românticas ou sensuais com crianças e exigir verificação de idade, testes de segurança e protocolos de crise, disse Garcia.

A Character.AI está contestando as afirmações de Garcia. A empresa disse que aprimorou os mecanismos de segurança desde a morte de seu filho.

Uma mulher do Texas, que também processou a empresa após a hospitalização de seu filho, também testemunhou na audiência sob um pseudônimo. Um tribunal enviou seu caso para arbitragem a pedido da empresa.

Na segunda-feira, a Character.AI foi processada novamente, desta vez no Colorado, pelos pais de um adolescente de 13 anos que morreu por suicídio em 2023.

Edições digital e impressa
 
 

 

 

Jornal Correio do Brasil - 2025

 

Utilizamos cookies e outras tecnologias. Ao continuar navegando você concorda com nossa política de privacidade.

Concordo