Um embedding transforma texto em uma lista de números (um vetor). Parece abstrato, mas a ideia é poderosa: textos com significados parecidos geram vetores parecidos, independente das palavras exatas usadas. 'Cão' e 'cachorro' terão embeddings próximos; 'banco financeiro' e 'banco de jardim' terão embeddings distintos, refletindo os significados diferentes.
Isso é fundamental para busca semântica: em vez de buscar pela palavra exata, você busca pelo significado. Pergunta 'como economizar dinheiro?' e o sistema encontra documentos sobre 'dicas de finanças pessoais' mesmo que nunca mencionem as palavras da pergunta. É assim que funciona a etapa de recuperação no RAG.
Embeddings também são a base de análises como agrupamento de textos similares, detecção de plágio semântico e sistemas de recomendação. Modelos como o text-embedding-3-small da OpenAI ou o nomic-embed da Nomic geram embeddings de alta qualidade e são baratos de usar via API.