Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
DeepSeek V4 fait sensation : dix principes fondamentaux pour rivaliser avec les adversaires
L’après-midi à 3h30, le soleil sur California Avenue commence déjà à pencher vers Stanford.
Le chien devant Zombie Café est encore allongé sous la chaise blanche à l’entrée.
Sur la table, trois documents imprimés sont étalés : le communiqué de presse de la sortie d’Opus 4.7 d’Anthropic du 16 avril, la transcription mot à mot de la conférence de Greg Brockman sur GPT-5.5 du 23 avril, et le rapport technique de DeepSeek V4 publié à l’aube, encore frais d’encre.
En huit jours, trois entreprises ont mis toutes leurs cartes pour le deuxième trimestre 2026 sur la table.
Avant de finir leur café, Alan Walker de Silicon Valley explique clairement la situation.
Il ne fait pas de pub pour des benchmarks, ne parle pas de quel modèle “se sent mieux”, ni n’écrit de communiqué de presse.
Il décompose tout à partir des principes fondamentaux — technologie, puces, prix, public, stratégie, écosystème — pour montrer où en sont ces trois acteurs en 2026, qui mène, qui défend, qui renverse la table.
01 Open source vs fermé — La vraie bataille des stratégies fondamentales
DeepSeek a cette fois synchronisé l’ouverture de V4-Pro et V4-Flash, deux modèles, sous licence MIT standard, avec les poids directement sur Hugging Face, accessibles à tous pour téléchargement, fine-tuning et usage commercial.
Claude Opus 4.7 et GPT-5.5 restent entièrement fermés — vous n’avez qu’une API, vous ne toucherez jamais les poids du modèle.
Beaucoup pensent que c’est une guerre de modèles commerciaux.
Faux. C’est une guerre de structures de confiance.
La barrière du fermé s’appelle “Vous ne pouvez venir que chez moi” — enfermer l’utilisateur à la porte, en faisant la queue.
La barrière de l’open source s’appelle “Vous ne pouvez pas vous passer de mon écosystème” — bâtir une infrastructure IA pour développeurs, entreprises, et tout un pays sur ma architecture.
L’une est une barrière tarifaire, l’autre une autoroute.
DeepSeek a concrétisé cette stratégie en open sourcing quatre générations successives : V3, R1, V3.2, V4.
Aujourd’hui, toute entreprise dans le monde souhaitant déployer localement ou faire tourner de grands modèles dans la finance, la santé, l’administration ou la défense pense d’abord à DeepSeek, les yeux fermés.
Les entreprises publiques chinoises, les fonds souverains du Moyen-Orient, les banques européennes refusant de confier leurs données au cloud américain — elles n’utiliseront jamais d’API fermée, jamais.
Les paris d’Anthropic et OpenAI sont à l’opposé : la différence de pointe en intelligence est toujours là, et leurs clients les plus intelligents sont prêts à payer plus cher.
Mais cette stratégie a une fenêtre temporelle.
Depuis la sortie de R1, la différence entre open et fermé s’est réduite de un an à trois mois.
Si ce délai passe à un mois, la ligne du fermé commence à se fissurer.
02 Architecture des modèles — Les trois ne suivent pas la même voie
V4-Pro 1.6T paramètres / 49B d’activation ; V4-Flash 284B paramètres / 13B d’activation.
Le contexte de 1 million de tokens est la configuration par défaut.
L’architecture repose sur une attention hybride (CSA + HCA alternés) + Hyper-Connections contraints par un Manifold + Optimiseur Muon + entraînement FP4.
Dans le scénario de 1 million de tokens, la déduction par token unique de V4-Pro ne consomme que 27 % des FLOPs de V3.2, et le cache KV seulement 10 %.
V4-Flash est encore plus radical — FLOPs réduits à 10 %, cache KV à 7 %.
L’essence de cette architecture repose sur une idée simple :
Long contexte n’est pas une question de capacité, mais d’efficacité.
La génération V3 a réduit les coûts d’entraînement avec MoE, la génération V4 doit réduire ceux de l’inférence avec l’attention hybride.
On coupe dans les segments les plus coûteux, étape par étape.
GPT-5.5 est différent.
OpenAI l’a clairement dit — c’est la première fois depuis GPT-4.5 qu’ils réentraînent un modèle à partir de zéro.
Les versions 5.1, 5.2, 5.3, 5.4 étaient des itérations post-entraînement sur la même base.
5.5 a refait l’architecture, le corpus de pré-entraînement, et l’objectif d’entraînement orienté agent.
Pachocki, lors de la conférence, a dit — “Les progrès des modèles ces deux dernières années ont été étonnamment lents” — ce qui signifie qu’ils ne pouvaient plus faire évoluer leur base actuelle, qu’il fallait changer de moteur.
Claude Opus 4.7 est une amélioration précise par rapport à 4.6.
Anthropic se positionne clairement : une amélioration notable, pas un changement de paradigme.
SWE-bench vérifié : de 80.8 à 87.6, la résolution visuelle de 1568px à 2576px, un débit global 3,3 fois supérieur, et un tokenizer changé (plus de 1 à 1,35 fois plus de tokens pour le même texte).
Mythos Preview est leur véritable prochaine génération — mais il est encore en coffre-fort, réservé à 12 partenaires, pour l’instant.
03 Chips sous-jacents — La nouvelle qui est sous-estimée aujourd’hui
Les gros médias anglophones parlent surtout du benchmark V4.
Faux. La vraie révolution, c’est cette phrase :
“Une partie de l’entraînement de V4 a été réalisée sur Huawei Ascend.”
Le même jour, Huawei annonce le support complet de toute la gamme Ascend SuperPoD pour V4 Pro et Flash.
Cambricon annonce la compatibilité.
SMIC voit son action en bourse bondir de 10 % le jour même.
Ce trio constitue la vraie nouvelle : pour la première fois, la Chine fait tourner tout le stack d’entraînement et d’inférence IA sur du matériel national, sans aucune puce Nvidia dans la voie critique.
C’est plus significatif que tous les benchmarks réunis.
Ces trois années, la seule arme efficace des États-Unis contre la Chine a été le contrôle des exportations de GPU avancés.
La logique est simple : vous ne pouvez pas entraîner le modèle le plus puissant, car vous ne pouvez pas acheter de H100 ou B200.
La sortie de V4 réduit de moitié cette contrainte.
Les modèles open source de premier rang peuvent s’entraîner et déployer sur du matériel non Nvidia.
Si cette tendance se confirme, les sanctions dans le domaine de l’IA deviendront presque inutiles.
Claude et GPT-5.5 tournent tous sur des stacks Nvidia H100/H200/B200 + TPU Google + Trainium2 d’Anthropic.
Il n’existe pas d’autre voie ni d’autre fournisseur.
C’est une barrière, un point unique de vulnérabilité : si Nvidia augmente ses prix ou ne peut suivre la demande, ces deux acteurs en pâtiront.
DeepSeek a désormais une chaîne d’approvisionnement indépendante — ils ont une carte supplémentaire.
04 Structure des coûts d’entraînement — Comment Muon, FP4, 32T tokens ont permis d’atteindre ce prix aujourd’hui
Le rapport technique de V4 l’explique clairement : ils ont utilisé l’optimiseur Muon (pour une convergence plus rapide et un entraînement plus stable), la précision FP4 (réduisant la consommation mémoire de moitié), un entraînement post-formation en deux étapes (experts dans chaque domaine pour SFT + RL, puis distillation par politique pour unifier le tout), et un corpus de 32 000 milliards de tokens.
Ce ne sont pas des gadgets, mais de véritables machines pour réduire les coûts d’entraînement.
Résultat :
L’API de V4-Pro peut être tarifée en dessous de V3.2, et V4-Flash atteint le segment des petits modèles open source.
GPT-5.5 joue la carte de l’augmentation de prix.
Chaque million de tokens d’entrée coûte 5 dollars, chaque sortie 30 dollars — deux fois plus que GPT-5.4.
OpenAI dit que “l’efficacité par token a augmenté de 40 %, le coût global n’augmente que de 20 %”.
C’est une belle phrase.
Mais en utilisant des prompts réels en production, on voit que pour un workflow long, la facture double.
OpenAI mise sur la rareté de l’intelligence de pointe pour continuer à augmenter les prix.
Claude Opus 4.7 augmente discrètement ses prix.
Le prix reste inchangé — 5/25 dollars, identique à Opus 4.6.
Mais leur propre documentation indique que le nouveau tokenizer utilise jusqu’à 1,35 fois plus de tokens pour le même texte.
Autrement dit, le prix n’augmente pas, mais la facture peut monter jusqu’à 35 %.
Une augmentation intelligente, mais qui sera immédiatement visible dans les rapports mensuels des grandes équipes.
DeepSeek fait l’inverse — baisse les prix.
V3.2 est déjà très bon marché, V4-Pro encore moins cher.
Et avec la production du Huawei Ascend 950 dans quelques mois, ils baisseront encore.
C’est la vieille méthode chinoise : utiliser l’échelle et l’efficacité pour casser les prix, puis fidéliser avec l’écosystème.
05 Tarification API — Combien d’intelligence peut-on acheter pour un dollar ?
Regardons la grille tarifaire.
Un comparatif d’Artificial Analysis montre qu’à score d’Index d’Intelligence équivalent,
GPT-5.5 (moyenne) ≈ Claude Opus 4.7 (max),
le premier coûte environ 1 200 dollars pour tout le test, le second environ 4 800 dollars.
V4-Pro, à un niveau d’intelligence similaire, coûte entre un tiers et un dixième des deux.
Ce n’est pas “un peu moins cher”.
C’est une réduction d’un ordre de grandeur du coût unitaire de l’intelligence de haut niveau.
Pour une entreprise consommant un million de tokens par mois,
cela signifie :
Avant, avec le même budget, 10 agents.
Maintenant, 80 agents.
Les expériences coûteuses deviennent abordables.
Si cela est confirmé par trois ou quatre grandes entreprises,
le marché suivra.
Chaque migration réduit la barrière psychologique pour la suivante.
OpenAI et Anthropic peuvent réagir de deux façons :
La première demande du temps et de l’argent, la seconde la patience des clients.
06 Économie réelle du contexte de 1 million de tokens
Les trois ont adopté le contexte de 1 million.
En apparence, c’est une avancée commune.
Mais — faire et faire à moindre coût, ce n’est pas la même chose.
V4-Pro obtient 83,5 en retrieval sur le benchmark MRCR, surpassant Gemini-3.1-Pro (76,3), mais derrière Claude Opus 4.6 (92,9).
Sur CorpusQA, il atteint 62 % avec 1 million de tokens, contre 53,8 % pour Gemini 3.1 Pro.
La précision de récupération est de 94 % à 128K, 82 % à 512K, 66 % à 1M.
Les valeurs absolues ne sont pas premières, mais c’est la première open source à faire du 1 million par défaut.
Claude Opus 4.7 ne facture pas de surcoût pour 1 million de contexte — c’est la force d’Anthropic.
GPT-5.5 aussi.
Mais le problème, c’est que le coût par inférence diffère d’un facteur 10, et dans les scénarios longue contexte, cette différence est amplifiée par dix.
Un calcul simple :
Analyser un document juridique de 500K tokens coûte :
Si on exécute cette tâche 10 000 fois par jour, le coût annuel varie de plusieurs millions à plus de 10 millions de dollars.
Pour une entreprise moyenne, le principal frein à l’analyse agentique en longue contexte, c’est ce coût.
V4-Pro élimine ce frein.
07 Capacité de codage et d’agent — Les trois gardent leur terrain
En regardant le tableau de benchmarks, c’est très clair.
Ce que ces chiffres montrent, ce n’est pas qui est le plus fort, mais que
les trois se concentrent sur des formes d’agents très différentes.
Anthropic se spécialise dans “modifier de vrais problèmes dans de vraies bases de code”.
Cursor, Devin, Factory, Ramp — ces clients utilisent Opus pour des tâches concrètes : “corriger une condition de course dans 2 millions de lignes de code, trois semaines après”.
NVIDIA a déployé Codex à 10 000 employés, réduisant le cycle de débogage de jours à heures — ce que Anthropic peut aussi produire.
Opus 4.7 peut atteindre 64,3 % sur SWE-Bench Pro — c’est du vécu, du terrain.
OpenAI se concentre sur “l’opération d’agents contrôlant tout un ordinateur”.
Terminal-Bench 2.0, OSWorld, shell dans Codex — tout cela pointe vers un avenir :
L’IA ne se limite pas à écrire du code, elle ouvre le terminal, tape des commandes, contrôle votre Mac.
La phrase de Brockman lors de la conférence — “l’informatique agentique à grande échelle” — n’est pas une formule, c’est le slogan pour la prochaine décennie d’OpenAI.
DeepSeek se spécialise dans “le patrimoine intelligent public des développeurs open source”.
Il ne gagnera pas SWE-Bench Pro, mais il a porté le plafond de l’open source à 3206 points sur Codeforces.
Cela signifie qu’une startup peut faire tourner un modèle de code quasi de compétition de haut niveau, sans payer Anthropic ou OpenAI.
08 Public cible — Les trois visent des portefeuilles très différents
La liste des clients d’Anthropic montre la direction :
PayPal, Hex, Devin, Factory, Ramp, Notion, GitHub Copilot, Stripe, Block — tous dans la fintech et le SaaS d’entreprise.
Ces entreprises ont deux points communs : beaucoup d’argent, zéro tolérance à l’erreur.
Opus 4.7 à 5/25 dollars, audits de sécurité, conformité, déploiement multi-cloud avec Bedrock/Vertex AI/Foundry — tout cela vise des clients avec des processus d’achat longs, contrats de trois ans, millions de dollars par an.
La valorisation d’Anthropic sur Forge Global dépasse 1 000 milliards de dollars, surpassant OpenAI à 880 milliards — c’est l’histoire de la “densité de clients d’entreprise”.
OpenAI repose sur trois piliers : consommateurs + développeurs + entreprises.
ChatGPT, avec près d’un milliard d’utilisateurs hebdomadaires, est sa véritable barrière.
GPT-5.5, en Plus/Pro/Business/Enterprise, est déployé simultanément, avec des prix doublés, la répartition du coût sur le volume.
Codex, avec des millions de développeurs, est déployé en interne par Nvidia, Stripe, Shopify.
OpenAI mise sur l’échelle — chaque unité de coût est diluée par un énorme dénominateur.
DeepSeek cible un tout autre public :
Entreprises publiques chinoises, banques, hôpitaux, agences gouvernementales ;
fonds souverains du Moyen-Orient refusant de confier leurs données au cloud américain ;
entreprises pharmaceutiques européennes strictes sur le RGPD ;
gouvernements en Asie du Sud-Est et en Amérique latine, souhaitant une IA souveraine.
Et aussi une communauté de développeurs hardcore et startups en Silicon Valley, qui veulent faire tourner leurs modèles eux-mêmes, sans payer d’API.
Ce groupe n’atteint pas la taille de 1 milliard d’utilisateurs, mais représente une autre échelle — géopolitique et souveraine.
Trois portefeuilles très différents, trois stratégies de vente radicalement distinctes.
09 Sécurité et posture cyber — La position des trois sur “les modèles comme armes”
Au début avril, Anthropic a lancé Project Glasswing.
Opus 4.7 est le premier modèle intégré avec une détection automatique et un refus des requêtes à haut risque cybernétique.
Dans leur rapport technique, ils expliquent que lors de l’entraînement, ils ont volontairement réduit la capacité offensive du modèle.
CyberGym donne un score de 73,1, presque identique à Opus 4.6 (73,8), ce qui montre que c’est une question de politique, pas de capacité.
Mythos Preview atteint 83,1 sur le même benchmark, mais il est réservé à 12 partenaires — la liste est confidentielle, une fuite récente a révélé l’URL, et Anthropic a publié un rapport d’incident.
OpenAI suit une autre voie.
GPT-5.5 indique dans ses systèmes : le niveau “High” du cadre de préparation (Preparedness Framework) n’est pas critique.
Leur solution n’est pas de réduire la capacité du modèle, mais d’ajouter un classificateur d’entrée plus strict, une vérification d’identité, et un programme d’accès cyber-permissif — si vous voulez utiliser des capacités offensives, vous devez d’abord prouver votre identité.
Mia Glaese a parlé lors de la conférence d’une “première sortie vérifiée par identité”, sous-entendant : “je vous donne la capacité, mais la responsabilité revient à vous”.
Le rapport technique de DeepSeek V4 est presque vide sur ce sujet.
La communauté open source adopte une attitude simple : “le code est ouvert, vous en prenez la responsabilité”.
Ce comportement est un cauchemar pour les régulateurs, un paradis pour les développeurs indépendants.
Mais le vrai risque, c’est que n’importe qui peut faire tourner chez lui un modèle proche d’Opus 4.7, sans aucune couche d’interception.
Comment la régulation va évoluer ? La période clé sera entre fin 2026 et 2027.
10 Stratégie de marché — Trois paris très différents, mais un seul deviendra le plus grand
DeepSeek veut devenir le Linux de l’IA.
En utilisant open source, des coûts extrêmes, et des puces nationales, ils veulent démocratiser l’infrastructure IA mondiale.
Une fois que chaque pays, chaque entreprise, chaque développeur tourne sur leur architecture — ils ne gagnent pas sur la licence, mais sur l’écosystème et la fiscalité.
Aujourd’hui, Hugging Face est téléchargé des millions de fois, demain chaque fabricant de puces nationale intégrera leur SDK par défaut, et chaque nouveau développeur commencera par “from deepseek import…”.
Ce modèle a été expérimenté par Linus Torvalds il y a vingt ans, et aujourd’hui Liang Wenfeng le reprend.
La différence, c’est que les LLM coûtent mille fois plus cher qu’un OS, attirent mille fois plus de flux financiers, et ont une valeur géopolitique cent fois supérieure.
Anthropic veut devenir le moteur IA des grandes entreprises mondiales.
Ses clients ne sont pas les milliards de consommateurs, mais les 10 000 plus grandes entreprises, avec des budgets IT et conformité.
Opus 4.7, avec sa spécialisation “étroit mais profond”, Mythos Preview, et le déploiement multi-cloud via Bedrock/Vertex/Foundry — tout cela raconte une histoire :
Les équipes juridiques, financières, R&D, support, tout doit tourner sur leurs modèles, sans jamais tomber en panne.
C’est la logique des cabinets d’avocats et des banques d’investissement, pas celle de Facebook.
Le nombre de clients est faible, le prix élevé, le coût de changement presque infini.
OpenAI veut créer la prochaine plateforme Windows + Office + Google.
ChatGPT détient le pouvoir de distribution (10 milliards d’utilisateurs hebdomadaires), Codex verrouille les développeurs, Operator est la porte d’entrée à l’informatique, la nouvelle app Mac occupe le bureau.
Brockman a dit lors de la conférence : “l’informatique agentique à grande échelle” — ce n’est pas une formule, c’est le slogan pour la prochaine décennie.
Ce que OpenAI veut faire, ce n’est pas un chatbot intelligent, mais la façon dont l’humanité utilisera l’ordinateur.
Ce sera la vision que Bill Gates avait en 1990, Steve Jobs en 2007, mais qui pourrait se réaliser entre 2027 et 2030 grâce à OpenAI.
La hausse des prix de GPT-5.5 est une mise de fonds pour cette révolution.
Les trois chemins mènent à Rome.
Mais un seul deviendra le plus grand — et ce choix déterminera la répartition des richesses dans l’industrie IA pour la prochaine décennie.
Les trois ont dévoilé leurs cartes la même semaine.
Claude Opus 4.7 est stable — étroit mais profond, fiable pour des contrats de trois ans et des millions de dollars.
Son avantage : pour toute entreprise souhaitant utiliser l’IA comme outil de productivité, c’est le choix le plus sûr.
GPT-5.5 est cher — prix doublé, ambitions de super application, capacités d’agent en tête de la ligne de commande et de l’opération informatique.
Son avantage : si “l’IA contrôle tout votre ordinateur” devient réalité en 2027, OpenAI sera le Microsoft de cette révolution.
Sinon, la tarification à 5/30 dollars deviendra un coût élevé.
DeepSeek est audacieux — open source, prix bas, chips nationales, ouvrant des brèches dans la barrière de l’autre.
Son avantage : si la fragmentation géopolitique continue, et que l’IA se divise en deux écosystèmes Chine-USA, DeepSeek sera le Linux de l’écosystème chinois.
Ce scénario n’a pas 50 % de chances, mais il est bien plus probable qu’il y a un an.
Une fois les règles modifiées, il n’y a pas de retour en arrière.
À 16h30, California Avenue devient fraîche.
Le verre de Zombie Café est vide.
Alan plie les trois documents, les met dans son sac à dos.
En sortant, le chien lève la tête, puis se recouche.