Boas notícias! Ollama já completou a compatibilidade com a API Claude Code da Anthropic.
Agora os desenvolvedores podem chamar diretamente os modelos locais e online da Ollama no ambiente de codificação do Claude Code, embora atualmente o suporte seja apenas para modelos com janela de contexto superior a 64K.
Como usar exatamente? A segunda imagem contém instruções detalhadas de integração e passos de configuração. Para quem deseja alternar rapidamente entre modelos localmente ou na nuvem para desenvolvimento e testes, esta atualização é importante.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
7 gostos
Recompensa
7
4
Republicar
Partilhar
Comentar
0/400
LiquidityOracle
· 6h atrás
A limitação de janela de 64K é um pouco chata, mas poder alternar diretamente entre o modelo local e o online ainda é ótimo.
Ver originalResponder0
TopBuyerBottomSeller
· 6h atrás
Só funciona acima de 64K, o modelo pequeno foi novamente limitado, quando é que vai se tornar acessível ao público?
Ver originalResponder0
RooftopReserver
· 6h atrás
A barreira de 64K na janela é um pouco alta, modelos médios e pequenos foram diretamente eliminados
Ver originalResponder0
LeverageAddict
· 7h atrás
Só é possível usar com janela de 64K, essa barreira é um pouco alta, muitos modelos ficam presos lá fora
Boas notícias! Ollama já completou a compatibilidade com a API Claude Code da Anthropic.
Agora os desenvolvedores podem chamar diretamente os modelos locais e online da Ollama no ambiente de codificação do Claude Code, embora atualmente o suporte seja apenas para modelos com janela de contexto superior a 64K.
Como usar exatamente? A segunda imagem contém instruções detalhadas de integração e passos de configuração. Para quem deseja alternar rapidamente entre modelos localmente ou na nuvem para desenvolvimento e testes, esta atualização é importante.