Em Alta NotíciasConflitoseconomiaFutebolrelações internacionais

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?
Entrar

OpenAI descobre motivo das ‘alucinações’ do ChatGPT em busca de precisão

Estudo da OpenAI revela que métricas atuais incentivam alucinações em modelos de linguagem e propõe reformulação para aumentar a confiabilidade

Telinha
Por Revisado por Time de Jornalismo Portal Tela
Estudo da OpenAI revela que métricas de avaliação podem incentivar palpites e explicam a ocorrência de "alucinações" em LLMs (Foto: Reprodução)
0:00 0:00
  • Pesquisadores da OpenAI identificaram o fenômeno das “alucinações” em modelos de linguagem, onde informações falsas são apresentadas com confiança.
  • Um novo estudo sugere que as métricas de avaliação atuais incentivam respostas arriscadas, em vez de promover a admissão de incertezas.
  • O estudo, intitulado “Hallucinations in Language Models: Causes, Consequences, and Countermeasures”, destaca que modelos como o GPT-5 e o Claude geram respostas erradas com frequência.
  • Os pesquisadores propõem reformular as métricas de avaliação para recompensar a indicação de incerteza e punir erros cometidos com confiança excessiva.
  • A OpenAI enfatiza a importância de uma abordagem mais cuidadosa no uso de sistemas de inteligência artificial, especialmente em contextos que exigem precisão.

Pesquisadores da OpenAI publicaram um estudo que investiga as “alucinações” em modelos de linguagem, como o GPT-5 e o Claude. O fenômeno, que se refere à geração de informações falsas apresentadas com confiança, continua a ser um desafio significativo para a confiança nas tecnologias de IA.

O estudo, intitulado “Hallucinations in Language Models: Causes, Consequences, and Countermeasures”, sugere que as métricas de avaliação atuais incentivam respostas arriscadas. Em vez de promover a admissão de incertezas, essas métricas recompensam respostas completas, mesmo que incorretas. Isso leva os modelos a arriscarem palpites, em vez de reconhecerem quando não têm informações suficientes.

Os pesquisadores relataram que, ao questionar um chatbot sobre o título da tese de doutorado de Adam Kalai, o modelo forneceu três respostas diferentes, todas erradas. Esse padrão se repetiu ao perguntar sobre sua data de aniversário. A OpenAI explica que o problema está no pré-treinamento dos modelos, que aprendem a prever palavras sem considerar a veracidade das informações.

Mudanças Necessárias

O estudo propõe que as métricas de avaliação sejam reformuladas. Os modelos deveriam ser recompensados por indicar incerteza e punidos por erros cometidos com confiança excessiva. Essa mudança poderia estimular respostas mais cautelosas e precisas. Além disso, a OpenAI sugere que métodos quantitativos, como o estimador Good-Turing, podem ajudar a calibrar a confiança dos modelos, reduzindo a geração de respostas inventadas.

Os pesquisadores também destacam que alguns modelos, como o Claude, demonstram maior consciência de sua própria incerteza, embora isso possa limitar a quantidade de respostas fornecidas. A OpenAI não comentou oficialmente sobre o estudo, mas enfatizou em seu blog que a reformulação das métricas de avaliação é crucial para aumentar a confiabilidade das IAs.

À medida que a inteligência artificial avança, é essencial que tanto desenvolvedores quanto usuários estejam cientes das limitações e riscos associados a essas tecnologias. O estudo da OpenAI ressalta a necessidade de uma abordagem mais cuidadosa no uso de sistemas de IA, especialmente em contextos onde a precisão é fundamental.

Comentários 0

Entre na conversa da comunidade
Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais