LLMs não sabem contar: pesquisa mapeia seis tipos de alucinação em GPT, Gemini e Claude
Um novo estudo publicado no Zenodo mapeou sistematicamente as alucinações de GPT-4, Gemini e Claude em tarefas de contagem e matemática básica — os três falham, de formas diferentes mas consistentes. O paper categoriza seis tipos de erro: inversão de ordem, erro de contagem, omissão, fabricaçã…
Um novo estudo publicado no Zenodo mapeou sistematicamente as alucinações de GPT-4, Gemini e Claude em tarefas de contagem e matemática básica — os três falham, de formas diferentes mas consistentes. O paper categoriza seis tipos de erro: inversão de ordem, erro de contagem, omissão, fabricação, erro contextual e confabulação. Para quem usa LLMs em qualquer tarefa com números, datas ou verificação de dados, o estudo serve de guia prático para saber exatamente onde não confiar no modelo sem checar.
Este destaque faz parte da newsletter Limiar #32 — Agentes que fazem negócios, IA que discrimina e a fusão europeia que desafia a OpenAI
Receba conteúdo direto no seu email
Escolha o que funciona melhor pra você.