Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
Je viens de repérer quelque chose qui façonne discrètement tout le jeu de l'infrastructure IA, et honnêtement c’est fou combien peu de gens en parlent.
Pendant des années, nous avons tous été obsédés par la rareté des GPU — c’est là que se déroule le calcul, non ? Mais voilà : nous avons mal abordé le problème. La vraie contrainte n’est plus l’inférence. C’est le CPU. Et je veux dire sérieusement — quand vous devez orchestrer des flux de travail complexes d’agents, gérer des appels API, administrer des bases de données, et traiter des fenêtres de contexte massives qui ne tiennent pas dans la mémoire GPU, soudain votre processeur devient le goulot d’étranglement pendant que votre GPU coûteux reste là à attendre.
Laissez-moi décomposer ce qui se passe réellement sur le marché. La PDG d’AMD, Lisa Su, a confirmé que ce changement est réel. Leur chiffre d’affaires dans les centres de données a atteint 5,4 milliards de dollars le dernier trimestre, avec une hausse de 39 % d’une année sur l’autre. Les processeurs EPYC de cinquième génération représentent à eux seuls plus de la moitié de leurs revenus CPU pour serveurs, et nous observons plus de 50 % de croissance dans les instances cloud tournant sur EPYC. Pour la première fois, AMD détient plus de 40 % de parts de marché dans le CPU pour serveurs. Ce n’est pas du hasard — c’est parce que tout le monde a soudain compris qu’il faut une puissance CPU sérieuse pour faire tourner des agents IA à grande échelle.
Pendant ce temps, Intel se démène mais joue intelligemment. Ils viennent de signer un contrat pluriannuel avec Google pour déployer des processeurs Xeon dans leurs centres de données IA. La proposition ? Les CPU et les accélérateurs spécialisés sont désormais les véritables moteurs de performance, pas seulement des acteurs de soutien. Elon Musk a même commandé des puces personnalisées à Intel pour son projet Terafab — c’est un signal énorme sur la direction que prend l’infrastructure.
Voici pourquoi cela importe : les charges de travail des agents sont fondamentalement différentes des chatbots. Avec les agents, vous ne vous contentez pas de générer des tokens — vous faites du raisonnement multi-étapes, orchestrez des API, gérez l’état, lisez et écrivez dans des bases de données. Un article de Georgia Tech de l’année dernière montrait que la gestion côté CPU pouvait représenter entre 50 % et 90 % de la latence totale. Le GPU est prêt, mais le CPU attend encore la réponse des outils. Ajoutez à cela des fenêtres de contexte qui dépassent maintenant un million de tokens, et soudain vous avez besoin d’une mémoire CPU massive et d’une bande passante juste pour stocker des caches KV qui ne tiennent pas sur les GPU.
La réponse de NVIDIA est intéressante. Leur CPU Grace n’a que 72 cœurs contre 128 pour AMD ou la gamme typique d’Intel. Mais c’est volontaire — ils optimisent pour l’efficacité entre CPU et GPU plutôt que pour le nombre brut de cœurs. Ils poussent cette idée que le CPU est vraiment un centre de coordination, pas un processeur à usage général. Avec leur interconnexion NVLink atteignant 1,8 To/s, le CPU peut accéder directement à la mémoire GPU, ce qui change complètement la gestion de ces caches KV massifs.
Le signal du marché est clair et fort. Bank of America prévoit que le marché des CPU pourrait doubler, passant de $27 milliards à $60 milliards d’ici 2030, presque entièrement porté par l’IA. Et tenez-vous bien — dans le partenariat d’Amazon d’un montant de $38 milliards avec OpenAI, ils prévoient explicitement de déployer des dizaines de millions de CPU. C’est la nouvelle métrique. On ne parle plus seulement de centaines de milliers de GPU ; on construit toute une infrastructure d’orchestration CPU.
Ce qui se passe vraiment, c’est que nous passons d’une ère limitée par le GPU à une ère d’efficacité au niveau du système. Les entreprises qui réussiront à équilibrer la collaboration CPU-GPU, à gérer d’immenses hiérarchies de mémoire, et à orchestrer efficacement des flux de travail complexes d’agents — ce sont elles qui gagneront. Ce n’est plus une question de composants individuels. C’est tout le système qui doit fonctionner en harmonie. Et si vous ne réfléchissez pas à votre stratégie CPU en 2026, vous êtes déjà à la traîne.