Mistral lança Small 4: 119B parâmetros, 128 experts e licença Apache 2.0
A Mistral AI lançou o Small 4, modelo com 119B parâmetros e 128 experts sob Apache 2.0. Unifica instrução, raciocínio, visão e código agêntico com raciocínio configurável por requisição.
A Mistral AI lançou o Small 4, seu modelo mais ambicioso até agora. Com 119 bilhões de parâmetros mas apenas 6 bilhões ativos por consulta (graças a uma arquitetura Mixture of Experts com 128 módulos), o modelo é 40% mais rápido que seu antecessor e processa 3x mais requisições por segundo.
A grande sacada é a unificação: Small 4 combina instrução, raciocínio, visão e código agêntico em um único modelo. Desenvolvedores podem configurar o esforço de raciocínio por requisição e o modelo suporta janela de contexto de 256K tokens sob licença Apache 2.0.
Enquanto os labs de fronteira fecham seus modelos, a Mistral aposta na abertura radical. Um modelo que unifica quatro capacidades sob licença open-source pressiona o ecossistema a repensar a estratégia de monetização e acesso à IA.
Fonte
The Decoderhttps://the-decoder.com/mistrals-new-small-4-model-punches-above-its-weight-with-128-expert-modules/
Receba conteúdo direto no seu email
Escolha o que funciona melhor pra você.