DeepSeek lance une version d’aperçu open source V4, avec une note technique de 3206 dépassant GPT-5.4

DeepSeek V4開源預覽版

DeepSeek a officiellement lancé la série d’aperçu V4 le 24 avril, avec un code source ouvert sous licence MIT ; les poids du modèle ont été mis en ligne sur Hugging Face et ModelScope. D’après le rapport technique de DeepSeek V4, V4-Pro-Max (mode de puissance de raisonnement maximale) obtient 3206 points sur le benchmark Codeforces, dépassant GPT-5.4.

Spécifications d’architecture de deux modèles MoE

D’après le rapport technique de DeepSeek V4, la série V4 comprend deux modèles à experts spécialisés (MoE) :

V4-Pro : 1,6T de paramètres au total, 49B d’activation par token, prise en charge d’un contexte de 1M tokens

V4-Flash : 284B de paramètres au total, 13B d’activation par token, prise en charge d’un contexte de 1M tokens

D’après le rapport technique, en contexte de 1M tokens, l’inférence FLOPs par token de V4-Pro n’est que 27% de celui de V3.2, le cache KV passe à seulement 10% de celui de V3.2. Cela est principalement dû à la mise à niveau d’architecture de l’attention mixte (CSA — attention clairsemée compressée + HCA — attention fortement compressée). La taille des données de pré-entraînement dépasse 32T tokens ; l’optimiseur d’entraînement a été mis à jour vers Muon.

Méthodologie de post-entraînement : la distillation en ligne remplace l’apprentissage par renforcement mixte

D’après le rapport technique de DeepSeek V4, la mise à jour centrale du post-entraînement de V4 réside dans le remplacement complet du stade d’apprentissage par renforcement mixte (mixed RL) de V3.2 par une distillation de politique en ligne (On-Policy Distillation, OPD). Le nouveau processus se divise en deux étapes : d’abord, entraîner séparément des experts spécialisés (SFT + apprentissage par renforcement GRPO) pour des domaines tels que les mathématiques, le code, les agents et le suivi d’instructions ; ensuite, distiller les capacités d’une dizaine d’experts vers un modèle unifié à l’aide de multiples enseignants OPD, en alignant les logits pour éviter les conflits de capacités courants dans les méthodes traditionnelles.

Le rapport introduit également un modèle génératif de récompense (Generative Reward Model, GRM) : pour les tâches difficiles à valider par des règles, l’entraînement est effectué avec une petite quantité de données d’annotation humaine diversifiées, afin que le modèle assure à la fois des fonctions de génération et d’évaluation.

Résultats des tests de référence : la programmation en tête, il reste un écart pour le raisonnement des connaissances

D’après le rapport technique de DeepSeek V4, les résultats de comparaison de V4-Pro-Max avec Opus 4.6 Max, GPT-5.4 xHigh et Gemini 3.1 Pro High (sans inclure le GPT-5.5 et Opus 4.7 publiés récemment) :

Codeforces : 3206 (GPT-5.4 : 3168 / Gemini 3.1 Pro : 3052) → meilleur score de toute la compétition

LiveCodeBench : 93.5 → meilleur score de toute la compétition

SWE Verified : 80.6, en retard sur Opus 4.6 à 80.8, soit 0,2 point de pourcentage

GPQA Diamond : 90.1, en retard sur Gemini 3.1 Pro à 94.3

SimpleQA-Verified : 57.9, en retard sur Gemini 3.1 Pro à 75.6

HLE : 37.7, en retard sur Gemini 3.1 Pro à 44.4

Le rapport technique indique également que les comparaisons ci-dessus ne tiennent pas compte du GPT-5.5 et d’Opus 4.7 récemment publiés ; l’écart entre V4 et les modèles fermés de dernière génération reste à confirmer par des évaluations indépendantes.

Questions fréquentes

Quelles sont les conditions de licence open source de l’aperçu DeepSeek V4, et où les obtenir ?

D’après l’annonce officielle du 24 avril de DeepSeek, la série V4 est open source sous licence MIT ; les poids du modèle ont été mis en ligne sur Hugging Face et ModelScope, utilisables pour des usages commerciaux et universitaires.

Quelle différence y a-t-il entre l’échelle de paramètres de DeepSeek V4-Pro et V4-Flash ?

D’après le rapport technique de DeepSeek V4, V4-Pro a 1,6T de paramètres au total, avec 49B d’activation par token ; V4-Flash a 284B de paramètres au total, avec 13B d’activation par token ; les deux modèles prennent en charge un contexte de 1M tokens.

Quels sont les résultats de comparaison des performances de DeepSeek V4-Pro-Max avec GPT-5.4 et Gemini 3.1 Pro ?

D’après le rapport technique de DeepSeek V4, V4-Pro-Max dépasse GPT-5.4 et Gemini 3.1 Pro sur deux benchmarks : Codeforces (3206 points) et LiveCodeBench (93.5), mais reste en retrait sur les benchmarks à forte densité de connaissances (GPQA Diamond, SimpleQA-Verified, HLE) par rapport à Gemini 3.1 Pro ; le groupe de comparaison ne comprend pas GPT-5.5 et Opus 4.7.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

DeepSeek cherche un financement de 1,8 milliard de dollars avec une valorisation de $20B au milieu d’une vague de départs de talents

Message de Gate News, 25 avril — DeepSeek prévoit de lever 1,8 milliard de dollars, valorisant l’entreprise à environ $20 milliards, selon des sources familières du dossier. La levée de fonds intervient alors que la startup d’IA fait face à une attrition importante des talents, plusieurs chercheurs principaux quittant l’entreprise pour rejoindre ByteDance, Tencent, Xiaomi, et la société de véhicules autonomes Horizon Robotics.

GateNewsIl y a 2h

Le juge rejette les allégations de fraude dans la plainte d’Elon Musk contre OpenAI ; l’affaire progresse vers un procès avec deux allégations restantes

Message de Gate News, 24 avril — Un juge fédéral a rejeté les allégations de fraude dans la plainte d’Elon Musk contre OpenAI, Sam Altman, Greg Brockman et Microsoft, ouvrant la voie à la poursuite de l’affaire devant le tribunal sur deux allégations restantes : violation de la confiance à but caritatif et enrichissement injustifié. États-Unis.

GateNewsIl y a 5h

Le PDG d'OpenAI, Sam Altman, s'excuse d'avoir omis de signaler à la police le compte banni du tireur de l'école

Message de Gate News, 25 avril — Le PDG d'OpenAI, Sam Altman, a présenté ses excuses à la communauté de Tamborine, au Canada, pour l'incapacité de l'entreprise à prévenir la police au sujet d'un compte banni lié à Jesse Van Rootselaar, qui a tué huit personnes dans une école en février avant de mettre fin à ses jours. OpenAI

GateNewsIl y a 6h

Les Émirats arabes unis annoncent une transition vers un modèle de gouvernement basé sur l’IA au cours des deux prochaines années

Son Altesse Cheikh Mohammed bin Rashid Al Maktoum a déclaré que l’objectif était que 50% des secteurs gouvernementaux fonctionnent grâce à une IA agentique autonome. La transition comprendra également la formation des employés fédéraux pour « maîtriser l’IA », et sera supervisée par Cheikh Mansour bin Zayed. Points clés :

CoinpediaIl y a 6h

La plateforme de trading d’IA Fere AI lève 1,3 M$ de fonds, menée par Ethereal Ventures

Message de Gate News, 25 avril — Fere AI, une plateforme de trading d’actifs numériques propulsée par l’IA, a annoncé avoir finalisé un tour de financement de 1,3 million de dollars mené par Ethereal Ventures, avec la participation de Galaxy Vision Hill et de Kosmos Ventures, selon Globenewswire. La plateforme prend en charge des réseaux inter-chaînes

GateNewsIl y a 7h

Google augmente avec 40 milliards de dollars d’investissement dans Anthropic : d’abord 10 milliards, puis libération de 30 milliards en fonction des résultats, avec une puissance de calcul de 5 GW de TPU

Alphabet augmente sa mise sur Anthropic à 40 milliards de dollars, en deux étapes : première injection de 10 milliards de dollars en espèces, valorisation à 3 800 milliards de dollars ; les 300 milliards de dollars restants seront libérés par tranches après l’atteinte des objectifs de performance. Google Cloud fournira 5 GW de ressources de calcul TPU sur cinq ans ; dans le même temps, Amazon a également annoncé un investissement pouvant aller jusqu’à 25 milliards de dollars, ce qui montre que le soutien en puissance de calcul et en capitaux d’Anthropic se renforce en parallèle.

ChainNewsAbmediaIl y a 8h
Commentaire
0/400
Aucun commentaire