Few-shot learning (aprendizado com poucos exemplos) explora uma capacidade notável dos LLMs: aprender uma tarefa a partir de exemplos dentro do próprio prompt. Você inclui 2-5 pares de 'entrada → saída' como referência, e o modelo entende o padrão e aplica à nova entrada.
Por exemplo, se você quer classificar sentimentos de avaliações de produtos, pode incluir no prompt: 'Produto ótimo, recomendo. → Positivo | Quebrou na primeira semana. → Negativo | Cumpre o prometido. → Neutro | Avaliação a classificar: [nova avaliação] →'. O modelo entende a tarefa pelos exemplos.
Few-shot é muito mais acessível que fine-tuning (não exige treinamento) e mais confiável que zero-shot para tarefas onde o formato de saída precisa ser exato. A limitação é que os exemplos ocupam espaço na janela de contexto, o que pode ser um problema quando você tem muitos dados de treinamento ou documentos longos.