GPT significa Generative Pre-trained Transformer. Foi uma série de modelos desenvolvida pela OpenAI a partir de 2018 que redefiniu o que era possível com inteligência artificial aplicada à linguagem. O GPT-3 (2020) impressionou o mundo pela capacidade de gerar texto coerente; o GPT-4 (2023) tornou-se a base do ChatGPT e elevou o padrão de toda a indústria.
O 'pré-treinado' no nome indica que o modelo primeiro aprende com uma enorme quantidade de texto genérico e depois pode ser ajustado (fine-tuned) para tarefas específicas. Isso é muito mais eficiente do que treinar um modelo do zero para cada aplicação.
Hoje, 'GPT' virou quase um sinônimo popular para LLM, mas na prática é apenas uma família específica de modelos da OpenAI. Existem outros LLMs poderosos — Claude (Anthropic), Gemini (Google), Llama (Meta) — que não usam a arquitetura GPT original, mas são igualmente capazes.