NVIDIA Nemotron 120B roda como modelo de 12B — e Liquid AI põe raciocínio no celular
NVIDIA apresenta modelo de 120B parâmetros que ativa apenas 12B por token na GTC 2026. Liquid AI lança modelo de raciocínio que cabe em 900 MB no smartphone. Eficiência redefine acesso à IA.
Na GTC 2026, a NVIDIA apresentou o Nemotron 3 Super, um modelo de 120 bilhões de parâmetros que ativa apenas 12 bilhões por token graças à arquitetura Mixture-of-Experts com Mamba-Transformer. O resultado: roda em uma única GPU RTX 4000 com o triplo da velocidade de um modelo de 70B, com janela de contexto de 1 milhão de tokens.
Na outra ponta do espectro, a Liquid AI lançou o LFM2.5-1.2B-Thinking — um modelo de raciocínio com 1,2 bilhão de parâmetros que cabe em menos de 1 GB e roda inteiramente no smartphone. Ele gera cadeias de raciocínio antes de responder, igualando ou superando o Qwen3-1.7B em benchmarks de matemática e uso de ferramentas, com 40% menos parâmetros.
Por que importa: A eficiência é o tema central. O que exigia data center há 2 anos agora roda offline no bolso. Para empresas brasileiras, isso significa IA sofisticada sem custos de nuvem — ideal para apps de campo, saúde remota e educação em regiões com conectividade limitada.
Receba conteúdo direto no seu email
Escolha o que funciona melhor pra você.