Rio de Janeiro, 23 de Julho de 2025

Estudo indica falhas de confiança em sistemas de IA

Arquivado em:
Segunda, 21 de Julho de 2025 às 14:32, por: CdB

Os pesquisadores observaram que, quando um LLM fornece uma resposta incorreta, mas o interlocutor concorda com ela mesmo assim, a plataforma aumenta sua confiança.

Por Redação, com ANSA – de Londres

Uma nova pesquisa reforça que a Inteligência Artificial (IA) “sofre” de insegurança. Isto ocorre quando o usuário coloca em dúvida uma afirmação da tecnologia, fazendo com que os modelos linguísticos de grande dimensão (LLM), como o Chat GPT, tendam a dar respostas menos confiáveis.

Estudo indica falhas de confiança em sistemas de IA | Chat GPT é uma das IAs mais utilizadas
Chat GPT é uma das IAs mais utilizadas

O estudo, realizado por pesquisadores do Google DeepMind e da Universidade College de Londres, publicado no arXiv – plataforma que publica análises que ainda não foram revisadas pela comunidade científica -, mostra que essa característica prevaleceu em modelos como Gemma 3, GPT4 e o1-preview.

Os pesquisadores observaram que, quando um LLM fornece uma resposta incorreta, mas o interlocutor concorda com ela mesmo assim, a plataforma aumenta sua confiança e tende a persistir em sua afirmação mesmo na presença de evidências contrárias.

Ferramenta

Por outro lado, quando a ferramenta faz uma afirmação correta, que é então contestada pelo usuário, ela tende a perder facilmente a segurança em “si”.

“Os LLMs dão peso excessivo a conselhos contrários, resultando em uma perda significativa de confiança em sua resposta inicial”, escrevem os autores, reforçando evidências de outros estudos que demonstram como textos produzidos por IA ainda estão sujeitos a muitas fontes potenciais de erros.

Edições digital e impressa
 
 

 

 

Jornal Correio do Brasil - 2025

 

Utilizamos cookies e outras tecnologias. Ao continuar navegando você concorda com nossa política de privacidade.

Concordo