Quando se trata de implementar modelos de linguagem em cenários do mundo real, as compensações de hardware e desempenho são tão importantes quanto a capacidade bruta.
OSS120B oferece um raciocínio local impressionante, mas tem um custo—você precisa de aproximadamente 120GB de RAM apenas para executá-lo de forma suave. Isso não é exatamente portátil. OSS20B atinge o ponto ideal para a maioria dos casos de uso; você obtém um desempenho sólido sem precisar de um centro de dados na sua cave.
Mistral-7B funciona muito bem para tarefas de conversação, embora tenha dificuldades com fundamentação de documentos e tendência a alucinar se você fornecer informações que não foram explicitamente treinadas nele. Llama, honestamente? Parece pouco impressionante em comparação com alternativas open-source mais recentes de tamanhos semelhantes. O ecossistema evoluiu rapidamente, e alguns dos jogadores mais novos estão simplesmente fazendo melhor.
A verdadeira lição: tamanho não é tudo. Contexto, qualidade dos dados de treinamento e eficiência prática importam mais do que você imagina.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
12 gostos
Recompensa
12
3
Republicar
Partilhar
Comentar
0/400
MEVictim
· 10h atrás
120GB RAM a correr OSS120B? Acorda, amigo, isto não é uma implantação local, é um data center local
Ainda assim, OSS20B é mais atraente, a melhor solução para ambientes de produção reais
O problema de ilusão do Mistral é realmente irritante... Assim que recebe dados desconhecidos, começa a inventar histórias
Llama realmente está sendo esmagado pelos novatos, o ecossistema é assim tão cruel
Falando nisso, o tamanho do modelo realmente não é tão importante, a qualidade dos dados de treino > tudo, esse é o verdadeiro ponto crítico
Ver originalResponder0
GasFeeCrybaby
· 10h atrás
120GB de RAM a correr 120B? De que servidor é que é isso, o meu computador velho até partiu a sério, haha
OSS20B é realmente impressionante, tem uma relação qualidade-preço excelente. Por falar nisso, o Llama agora está um pouco atrasado, as novidades mais recentes deixam-no a milhas
Isto é que é a verdade, não basta encher de parâmetros só por encher
Ver originalResponder0
StealthDeployer
· 10h atrás
120GB a correr no modelo local? A rir, tenho de vender o computador avariado em casa
---
O OSS20B é de facto perfumado, mas o verdadeiro estrangulamento é a qualidade dos dados
---
A Llama está a puxar um pouco agora, e novos modelos estão a pendurá-lo
---
Não olhes apenas para a quantidade de parâmetros, a janela de contexto e a eficiência da inferência são a verdadeira produtividade
---
O Mistral incomoda-se com problemas de alucinação, e esta coisa não é adequada para produção e proteção ambiental
---
Quem vai pagar o custo de 120GB? Para ser franco, as equipas pequenas e médias não podem pagar para jogar
---
É por isso que estou agora a olhar para soluções de quantização, que podem poupar metade da memória
Quando se trata de implementar modelos de linguagem em cenários do mundo real, as compensações de hardware e desempenho são tão importantes quanto a capacidade bruta.
OSS120B oferece um raciocínio local impressionante, mas tem um custo—você precisa de aproximadamente 120GB de RAM apenas para executá-lo de forma suave. Isso não é exatamente portátil. OSS20B atinge o ponto ideal para a maioria dos casos de uso; você obtém um desempenho sólido sem precisar de um centro de dados na sua cave.
Mistral-7B funciona muito bem para tarefas de conversação, embora tenha dificuldades com fundamentação de documentos e tendência a alucinar se você fornecer informações que não foram explicitamente treinadas nele. Llama, honestamente? Parece pouco impressionante em comparação com alternativas open-source mais recentes de tamanhos semelhantes. O ecossistema evoluiu rapidamente, e alguns dos jogadores mais novos estão simplesmente fazendo melhor.
A verdadeira lição: tamanho não é tudo. Contexto, qualidade dos dados de treinamento e eficiência prática importam mais do que você imagina.