Zero-shot se refere à capacidade do modelo de executar uma tarefa que não foi vista explicitamente durante o treinamento, e sem exemplos no prompt — apenas com a descrição da tarefa. 'Classifique o sentimento deste texto como positivo, negativo ou neutro:' seguido do texto é um prompt zero-shot.
O fato de que modelos grandes conseguem fazer zero-shot razoavelmente bem foi uma das primeiras grandes surpresas da era dos LLMs. Antes, a ideia dominante era que você precisaria treinar (ou pelo menos mostrar exemplos de) cada tarefa específica. Os LLMs quebraram essa expectativa.
O zero-shot é conveniente e funciona bem para tarefas simples ou comuns. Para tarefas mais específicas, incomuns ou que exigem um formato de saída preciso, few-shot geralmente performa melhor. A regra prática: comece com zero-shot, e se o resultado não estiver bom, adicione exemplos.