Limiar
Voltar ao Glossário
Conceitos

Alucinação

Fenômeno em que um modelo de IA gera informações falsas, inventadas ou incorretas com aparente confiança, sem indicar que está errando.

Alucinação é um dos problemas mais importantes a conhecer sobre LLMs. O modelo pode inventar fatos, citar referências que não existem, descrever eventos que nunca aconteceram — tudo com o mesmo tom confiante que usa quando está correto. Isso não é mentira intencional: o modelo simplesmente não tem mecanismo interno para distinguir o que sabe do que está inferindo.

Por que isso acontece? LLMs são treinados para gerar texto plausível, não necessariamente verdadeiro. Quando a resposta certa não está bem representada nos dados de treinamento, o modelo 'preenche a lacuna' com o que parece mais provável linguisticamente. O resultado é texto coerente e convincente, mas factualmente errado.

Como mitigar: use RAG para ancorar respostas em documentos verificáveis; peça ao modelo que cite suas fontes (e verifique-as); desconfie de detalhes específicos como datas, nomes e números sem confirmação independente. Modelos mais recentes melhoraram nesse aspecto e às vezes dizem 'não sei', mas alucinações ainda são uma realidade com a qual todo usuário de IA precisa lidar.