5 setembro, 2025
sexta-feira, 5 setembro, 2025

OpenAI explica por que IAs ainda “alucinam”

Compartilhe

Logo do ChatGPT

Tudo sobre ChatGPT

Inteligência artificial

Tudo sobre Inteligência Artificial

OpenAI Logo

Tudo sobre OpenAI

A OpenAI trouxe à tona um novo estudo que desvenda um fenômeno intrigante enfrentado pelos modelos de linguagem — as chamadas “alucinações”. Essas alucinações representam respostas que, embora plausíveis, são fundamentalmente erradas, e ocorrem mesmo em sistemas avançados. A chave para entender esse desafio está no processo de treinamento e avaliação dessas inteligências artificiais.

O texto afirma: “Mesmo com modelos mais capazes, as alucinações representam um desafio difícil de resolver.” Em termos simples, trata-se de situações nas quais o sistema emite uma resposta com confiança, mas que não corresponde à verdade. Um caso ilustrativo ocorreu quando um chatbot foi questionado sobre a tese de doutorado de Adam Tauman Kalai. Ele ofereceu três respostas diferentes — todas incorretas — e falhou também ao tentar fornecer sua data de nascimento, apresentando três datas distintas, igualmente erradas.

Logo da OpenAI em um smartphone que está em cima do teclado de um notebook
O problema está ligado a como os sistemas são treinados e avaliados (Imagem: Ascannio/Shutterstock)

Conforme ressalta a OpenAI, as atuais avaliações tendem a promover uma cultura de “chutes” ao invés de incentivar a honestidade sobre a incerteza. Um modelo que se arrisca a dar uma data de aniversário tem uma chance em 365 de acertar, enquanto dizer “não sei” resulta em zero pontos. Isso cria um ciclo vicioso onde errar parece mais benéfico do que se abster.

O estudo sugere uma mudança crucial: reformulação da forma como os modelos são avaliados. Penalizar erros confiantes mais severamente do que a incerteza e prestar crédito às expressões de dúvida são passos considerados promissores. Essa abordagem, já utilizada em exames padronizados, visa contornar a tendência de premiar palpites, perpetuando assim o comportamento de arriscar em detrimento da clareza.

ChatGPT
“Nossos modelos mais recentes têm taxas menores de alucinação e seguimos trabalhando para reduzir ainda mais os erros confiantes”, diz a OpenAI (Imagem: PhotoGranary02/Shutterstock)

Além disso, o estudo analisa como esses erros surgem no treinamento. Os modelos são programados para prever a próxima palavra em vastos conjuntos de texto, mas sem rótulos que indiquem o que é verdadeiro ou falso. Assim, o reconhecimento de informações inválidas torna-se um desafio, especialmente para fatos menos frequentes e aleatórios, como datas de aniversários.

Contrariando alguns mitos, o estudo defende que as alucinações não são inexoráveis. Modelos de linguagem podem optar por se abster de emitir respostas quando incertos, e modelos menores, surpreendentemente, podem reconhecer suas limitações com mais facilidade. A OpenAI reafirma seu compromisso com a melhoria contínua, afirmando que: “Nossos modelos mais recentes têm taxas menores de alucinação e continuamos a trabalhar para reduzir ainda mais os erros confiantes”.

Página web da OpenAI
A chave pode estar em como os modelos são avaliados e recompensados durante seu desenvolvimento (Imagem: Iljanaresvara Studio/Shutterstock)

Para realmente transformar a eficácia desses sistemas inteligentes, a solução pode não estar apenas em aumentar a capacidade computacional, mas em repensar as métricas de avaliação e recompensa durante o treinamento. Agora, convidamos você a compartilhar sua opinião: o que você acha que poderia ser feito para reduzir ainda mais as alucinações nas IAs? Comente abaixo!

Você sabia que o Itamaraju Notícias está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.

Veja também

Mais para você