Os chatbots “precisam de algum senso de moralidade incorporado a eles”, disse Matthew Raine, que processou a OpenAI após a morte de seu filho Adam por suicídio na Califórnia.
Por Redação, com Reuters – de Washington
Três pais cujos filhos morreram ou foram hospitalizados depois de interagir com chatbots de inteligência artificial pediram ao Congresso dos Estados Unidos que regulamente os chatbots de IA na terça-feira, em uma audiência no Senado dos EUA sobre os danos causados às crianças que usam a tecnologia.

Os chatbots “precisam de algum senso de moralidade incorporado a eles”, disse Matthew Raine, que processou a OpenAI após a morte de seu filho Adam por suicídio na Califórnia, depois de receber instruções detalhadas de automutilação do ChatGPT.
– O problema é sistêmico e não acredito que eles não consigam consertá-lo – disse Raine, acrescentando que o ChatGPT fecha rapidamente outras linhas de perguntas que não envolvam automutilação.
A OpenAI disse que pretende melhorar as proteções do ChatGPT, que podem se tornar menos confiáveis em interações longas. Na terça-feira, a empresa disse que planeja começar a prever a idade dos usuários para direcionar as crianças para uma versão mais segura do chatbot.
O senador Josh Hawley, republicano do Missouri, convocou a audiência. Hawley lançou uma investigação sobre a Meta Platforms no mês passado, depois que a Reuters informou que as políticas internas da empresa permitiam que seus chatbots “envolvessem uma criança em conversas românticas ou sensuais”.
Meta
A Meta foi convidada a testemunhar na audiência e se recusou, disse o gabinete de Hawley. A empresa disse que os exemplos relatados pela Reuters estavam errados e foram removidos.
Megan Garcia, que processou a Character.AI por interações que, segundo ela, levaram ao suicídio de seu filho Sewell, também testemunhou na audiência.
– O Congresso pode começar com a regulamentação para evitar que as empresas testem produtos em nossos filhos – disse Garcia.
O Congresso deve proibir as empresas de permitir que os chatbots se envolvam em conversas românticas ou sensuais com crianças e exigir verificação de idade, testes de segurança e protocolos de crise, disse Garcia.
A Character.AI está contestando as afirmações de Garcia. A empresa disse que aprimorou os mecanismos de segurança desde a morte de seu filho.
Uma mulher do Texas, que também processou a empresa após a hospitalização de seu filho, também testemunhou na audiência sob um pseudônimo. Um tribunal enviou seu caso para arbitragem a pedido da empresa.
Na segunda-feira, a Character.AI foi processada novamente, desta vez no Colorado, pelos pais de um adolescente de 13 anos que morreu por suicídio em 2023.