Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
CITIC Securities : DeepSeek, le nouveau modèle de prochaine génération, devrait poursuivre la voie des modèles open source à haute performance et bon rapport qualité-prix
Le rapport de recherche de CITIC Securities indique qu’à partir de 2026, les fabricants de modèles de langage (LLM) domestiques se concentrent sur la mise à niveau des capacités d’Agent et de code, et publient en concurrence de nouveaux modèles. On s’attend à ce que le prochain nouveau modèle de DeepSeek prolonge la voie des modèles open source à haut rapport qualité-prix ; en termes de capacités, il devrait renforcer les fonctions de mémoire et la gestion de contextes extrêmement longs, tout en affinant les capacités de code et d’Agent et en comblant en même temps les faiblesses dans le multimodal, créant ainsi de nouvelles opportunités d’investissement dans les directions des fabricants de modèles, des applications IA et des infrastructures de base IA.
1、Fabricant de modèles : le nouveau modèle de DeepSeek pourrait être amené à collaborer avec d’autres modèles domestiques, afin d’accélérer l’essor de l’IA chinoise vers le monde ; en parallèle, la formation du modèle progresse encore pour réduire les coûts, et des tokens plus économiques stimulent globalement l’augmentation du volume d’appels des API des LLM dans le monde. 2、Applications IA : l’égalité d’accès aux modèles aide à atténuer l’anxiété du marché face au récit de la contradiction entre modèles et applications, favorise le déploiement d’AI Agents dans tous les secteurs, et est favorable aux sociétés d’applications IA dotées de barrières ; 3、Infrastructures IA : la réduction des coûts entraîne une hausse des volumes d’utilisation, ce qui profite à AI Infra ; les infrastructures IA domestiques et les modèles domestiques évoluent dans la même direction.
Le texte intégral est le suivant
Informatique|DeepSeek : perspectives pour le modèle de nouvelle génération
À partir de 2026, les fabricants de modèles de langage (LLM) domestiques se concentrent sur la mise à niveau des capacités d’Agent et de code, et publient en concurrence de nouveaux modèles. Nous estimons que le prochain nouveau modèle de DeepSeek a des chances de prolonger la voie des modèles open source à haut rapport qualité-prix ; en termes de capacités, il devrait réaliser des fonctions de mémoire plus puissantes et le traitement de contextes extrêmement longs, affiner les capacités de code et d’Agent, tout en comblant les lacunes en multimodal, apportant de nouvelles opportunités d’investissement dans les directions du fabricant de modèles, des applications IA et des infrastructures de base IA.
▍ Code, Agents, multimodal natif : la direction de mise à niveau des LLM mondiaux.
Dans le domaine de la programmation par IA, la mise à niveau des cadres d’entraînement, l’adoption de dépôts de code complets et de traces d’ingénierie comme données d’entraînement, ainsi que l’introduction de chaînes de pensée plus profondes avec exécution multi-étapes et auto-réparation, ont permis à l’IA de codage de passer d’un simple outil de complétion de code à des agents autonomes au niveau du projet. Harness Engineer pourrait permettre aux techniciens de passer du statut d’ingénieur en code à celui de gestionnaire d’agents, afin de faire jouer à l’IA son efficacité maximale. Dans le domaine des grappes d’agents multi-AI, le produit « phéno-type » OpenClaw illustre pleinement le potentiel des systèmes multi-agents ; des fabricants nationaux tels que Zhipu, MiniMax, Tencent, Kimi, etc., ont tous lancé des produits « de type langouste », libérant la productivité des employés numériques. Dans le domaine du multimodal natif, l’architecture de multimodal natif est déjà devenue une direction dominante ; l’encodage hybride permet une percée rapide. Néanmoins, les modèles nationaux doivent encore faire des percées dans des étapes clés telles que l’interaction temps réel audio-vidéo et le raisonnement continu intermodal.
▍ LLM domestiques : itérations de mise à niveau denses, percées continues de capacités.
1)MiniMax : les capacités de code sont encore améliorées. Le test M2.7 SWE-Pro obtient 56,22 %, dépassant Gemini 3.1 Pro ; lors du test VIBE-Pro pour des scénarios de livraison de projets complets de bout en bout, le score atteint 55,6 %, se rapprochant de Claude Opus 4.6, ce qui renforce davantage la compréhension de la logique de fonctionnement des systèmes logiciels. En outre, les modèles de la série M2 participent à des scénarios comme RL dans le processus d’entraînement de M2.7, permettant au modèle de s’itérer de façon autonome.
2)Zhipu : GLM-5 introduit DSA et sa propre architecture « Slime ». Elle permet d’accomplir de manière autonome des tâches d’ingénierie système telles que la planification et l’exécution de longues trajectoires agentiques, la refonte du backend et le débogage approfondi, avec un minimum d’intervention humaine. Les capacités en appels d’outils et en exécution de tâches multi-étapes (MCP-Atlas 67,8 %), en recherche en ligne et compréhension d’information (Browse Comp 89,7 %) sont proches, voire supérieures, aux niveaux des modèles leaders outre-mer.
3)Kimi : Kimi 2.5 a introduit des capacités visuelles pour automatiser la décomposition de la logique d’interaction, reproduire du code, et a lancé un nouveau mode « grappe d’agents ». Dans les tests d’applications d’agents intelligents tels que HLE-Full, BrowseComp et DeepSearchQA, les scores obtenus sont comparables à ceux de GPT-5.2, Claude 4.5 Opus et Gemini 3 Pro. Moonshoot adopte une stratégie de baisse des prix : le prix de l’API est réduit de plus de 30 % par rapport à la tarification de K2 Turbo.
4)Xiaomi : Le Xiaomi MiMo-V2-Pro, dans des tests évaluant les capacités d’appel d’Agent du modèle tels que ClawEval et t2-bench, est proche, voire en avance sur certains modèles leaders outre-mer ; ses premières versions internes de test ont été mises en ligne sur OpenRouter sous un code anonyme « Hunter Alpha » ; pendant la période de lancement, pendant plusieurs jours, il a atteint la première place du classement quotidien du volume d’appels. Nous sommes optimistes quant au fait que la base des grands modèles confère à Xiaomi un levier pour l’ensemble de l’écosystème « personnes-véhicules-maison », permettant un bond de niveau des capacités d’IA.
▍ Perspectives de DeepSeek : prolonger la voie à haut rapport qualité-prix, affiner les capacités de longs textes, de code, d’Agent et de multimodal.
DeepSeek a publié en janvier 26 le DeepSeek V3.2, qui adopte une architecture à attention clairsemée (DSA) + experts d’un modèle (MoE) hybride, afin d’optimiser l’efficacité et de réduire les coûts de l’entraînement et de l’inférence. Les prix de l’input/output en tokens diminuent respectivement de 60 % / 75 %. Dans le même temps, les scores en benchmark pour les capacités de code et de multi-Agents augmentent de manière significative. En combinant les orientations d’évolution des modèles DeepSeek et l’article sur le module Engram auquel Liang Wenfeng a participé en tant que signataire, nous estimons que de nouveaux modèles de nouvelle génération comme DeepSeek V4.0 pourraient intégrer Engram dans l’architecture déjà mature DSA+MoE ; en utilisant un stockage hiérarchisé des informations clés et fréquemment utilisées, il serait possible de réduire de façon exponentielle la quantité de calcul de la couche d’attention dans l’architecture Transformer, afin de réaliser le traitement de contextes extrêmement longs. En améliorant l’efficacité du modèle, on affinerait aussi les capacités de code et d’Agent, tout en comblant les lacunes en multimodal.
▍ Facteurs de risque :
Le développement des technologies IA de base et l’expansion des applications ne répondent pas aux attentes ; la réduction des coûts en puissance de calcul ne répond pas aux attentes ; l’IA utilisée de manière inappropriée provoque un impact social grave ; risques pour la sécurité des données ; risques pour la sécurité de l’information ; la concurrence dans l’industrie s’intensifie.
▍ Stratégie d’investissement : Nous recommandons de prêter attention aux trois axes suivants.
1)Fabricant de modèles : le nouveau modèle de DeepSeek pourrait être amené à collaborer avec d’autres modèles domestiques, afin d’accélérer l’essor de l’IA chinoise vers le monde ; en parallèle, la formation du modèle progresse encore pour réduire les coûts, et des tokens plus économiques stimulent globalement l’augmentation du volume d’appels des API des LLM dans le monde.
2)Applications IA : l’égalité d’accès aux modèles contribue à atténuer l’anxiété du marché face au récit de la contradiction entre modèles et applications, favorise le déploiement d’AI Agents dans tous les secteurs, et est favorable aux sociétés d’applications IA dotées de barrières ;
3)Infrastructures IA : la réduction des coûts entraîne une hausse des volumes d’utilisation, ce qui profite à AI Infra ; les infrastructures IA domestiques et les modèles domestiques évoluent dans la même direction.
(Source : Première Finance)