Tudo sobre ChatGPT
Tudo sobre Inteligência Artificial
Tudo sobre OpenAI
A OpenAI trouxe à tona um novo estudo que desvenda um fenômeno intrigante enfrentado pelos modelos de linguagem — as chamadas “alucinações”. Essas alucinações representam respostas que, embora plausíveis, são fundamentalmente erradas, e ocorrem mesmo em sistemas avançados. A chave para entender esse desafio está no processo de treinamento e avaliação dessas inteligências artificiais.
O texto afirma: “Mesmo com modelos mais capazes, as alucinações representam um desafio difícil de resolver.” Em termos simples, trata-se de situações nas quais o sistema emite uma resposta com confiança, mas que não corresponde à verdade. Um caso ilustrativo ocorreu quando um chatbot foi questionado sobre a tese de doutorado de Adam Tauman Kalai. Ele ofereceu três respostas diferentes — todas incorretas — e falhou também ao tentar fornecer sua data de nascimento, apresentando três datas distintas, igualmente erradas.

Conforme ressalta a OpenAI, as atuais avaliações tendem a promover uma cultura de “chutes” ao invés de incentivar a honestidade sobre a incerteza. Um modelo que se arrisca a dar uma data de aniversário tem uma chance em 365 de acertar, enquanto dizer “não sei” resulta em zero pontos. Isso cria um ciclo vicioso onde errar parece mais benéfico do que se abster.
O estudo sugere uma mudança crucial: reformulação da forma como os modelos são avaliados. Penalizar erros confiantes mais severamente do que a incerteza e prestar crédito às expressões de dúvida são passos considerados promissores. Essa abordagem, já utilizada em exames padronizados, visa contornar a tendência de premiar palpites, perpetuando assim o comportamento de arriscar em detrimento da clareza.

Além disso, o estudo analisa como esses erros surgem no treinamento. Os modelos são programados para prever a próxima palavra em vastos conjuntos de texto, mas sem rótulos que indiquem o que é verdadeiro ou falso. Assim, o reconhecimento de informações inválidas torna-se um desafio, especialmente para fatos menos frequentes e aleatórios, como datas de aniversários.
Contrariando alguns mitos, o estudo defende que as alucinações não são inexoráveis. Modelos de linguagem podem optar por se abster de emitir respostas quando incertos, e modelos menores, surpreendentemente, podem reconhecer suas limitações com mais facilidade. A OpenAI reafirma seu compromisso com a melhoria contínua, afirmando que: “Nossos modelos mais recentes têm taxas menores de alucinação e continuamos a trabalhar para reduzir ainda mais os erros confiantes”.

Para realmente transformar a eficácia desses sistemas inteligentes, a solução pode não estar apenas em aumentar a capacidade computacional, mas em repensar as métricas de avaliação e recompensa durante o treinamento. Agora, convidamos você a compartilhar sua opinião: o que você acha que poderia ser feito para reduzir ainda mais as alucinações nas IAs? Comente abaixo!