O modelo de 27B parâmetros funciona numa GPU com 16GB de memória, alegando-se que a sua capacidade de inferência é próxima do Claude 4 Opus

robot
Geração do resumo em andamento

Notícias da ME, 1 de Abril (UTC+8). Recentemente, surgiram informações de que um modelo com um tamanho de parâmetros de 27B, quando executado localmente com uma GPU de 16GB de VRAM e em quantificação de 4 bits, teve um desempenho superior ao Claude Sonnet 4.5 no teste de referência SWE-bench. De acordo com a opinião expressa no artigo, este modelo consegue fornecer capacidades de inferência comparáveis às do Claude 4 Opus, mas com menor necessidade de recursos. A versão v2 deste modelo reduziu em 24% a redundância do chain-of-thought, ao mesmo tempo que manteve uma precisão de 96,91% no HumanEval. (Fonte: InFoQ)

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar