Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Après l'émergence des agents intelligents, la répartition de toute la chaîne de valeur de l'IA a changé
L narrative principal de l’investissement dans l’IA est en train de subir une transition structurelle. La dernière étude de Morgan Stanley indique qu’à mesure que l’IA passe de la « génération de contenu » à la « exécution automatique de tâches », la logique d’incrémentation de la prochaine vague d’infrastructure IA s’étendra du « concours de puissance de calcul sur une seule puce » à la « ingénierie de systèmes en pile complète » — le GPU reste central, mais ne détient plus l’exclusivité du budget et des primes.
Selon le Trading台追风, l’analyste de Morgan Stanley, Shawn Kim, écrit directement dans le rapport : « L’IA agentielle marque une transition structurelle du calcul à l’orchestration. » Dans le flux de travail des agents intelligents, le temps d’orchestration côté CPU peut représenter de 50 % à 90 % du délai total, ce qui permet d’estimer qu’en 2030, le marché additionnel pour les CPU sera de 32,5 à 60 milliards de dollars, portant le TAM total des serveurs CPU à environ 82,5 à 110 milliards de dollars.
Par ailleurs, la DRAM, les cartes d’interconnexion ABF, la fonderie de wafers, le stockage, les connecteurs et composants passifs, tous passeront du rôle de « figurants » à celui de nouveaux goulots d’étranglement et de bassins de profit. En 2030, cela générera une demande supplémentaire de 15 à 45 EB de DRAM, équivalente à 26 % à 77 % de la capacité annuelle totale de l’industrie en 2027.
Cette évaluation signifie pour le marché : les bénéficiaires des dépenses en capital IA s’étendront de quelques géants des puces à toute la chaîne d’approvisionnement mondiale, la prochaine vague de profits excessifs pouvant provenir davantage des « maillons habilitants » qui deviennent les premiers goulots dans le flux de travail des agents intelligents, et qui sont aussi les plus difficiles à augmenter rapidement en capacité. À mesure que ces goulots migrent entre différents maillons, la répartition de la valeur dans la chaîne IA évolue.
De « génération » à « action » : l’agentiel déplace le goulot du calcul à l’orchestration
La structure typique du flux de travail de l’IA générative est relativement simple : après réception de la requête utilisateur, le CPU effectue une pré-traitement léger, le GPU génère les tokens, puis la réponse est renvoyée. Dans cette chaîne, le GPU est le protagoniste absolu, le CPU jouant un rôle auxiliaire.
Le fonctionnement des agents intelligents est radicalement différent. Pour accomplir une tâche, le système doit passer par plusieurs étapes : planification, récupération, appel d’outils et API externes, exécution, réflexion et itération, etc. Il implique aussi une collaboration multi-agent, la gestion des permissions, la persistance d’état et la planification, avec de nombreuses capacités de « contrôle » au niveau du logiciel. La conclusion centrale de Morgan est : l’agent ne conduit pas à une inférence « plus lourde » unique, mais à plus d’étapes, plus d’états, plus de coordination, et ces travaux sont naturellement mieux adaptés au traitement par le CPU.
Cela entraîne deux conséquences directes : premièrement, le ratio CPU/GPU au niveau du cluster augmentera systématiquement ; deuxièmement, la DRAM passera du statut de « simple capacité » à celui de « composant clé de performance et de débit ». Les goulots d’étranglement dans les centres de données seront de plus en plus liés à la bande passante mémoire, au transfert de données, à la latence d’interconnexion et à la coordination système, plutôt qu’à la seule puissance de calcul GPU.
Le ratio CPU est en train d’être réévalué : il passe de « 1 CPU pour 12 GPU » à « 1 pour 2 » voire à une inversion
Autrefois, la configuration typique des serveurs IA était « 1 CPU pour environ 12 GPU ». Mais le rapport indique qu’avec l’allongement des flux d’agents et la complexification des appels d’outils et de la gestion du contexte, ce ratio se réduit rapidement.
Prenons l’exemple de la feuille de route de NVIDIA : les nouvelles estimations montrent qu’autour de la plateforme Rubin, le ratio CPU/GPU est déjà proche de 1:2 ; si l’on évolue vers des formes plus agressives comme Rubin Ultra, il pourrait même y avoir une inversion, avec 2 CPU pour 1 GPU. Même en passant de 1:12 à 1:8, pour les déploiements à grande échelle, la demande absolue en CPU connaîtrait une hausse significative.
Si cette tendance se confirme, la demande en CPU passera d’un simple suivi des expéditions de serveurs à une croissance liée à la complexité des agents, rendant la croissance du besoin en CPU plus structurelle, plutôt que simplement cyclique selon le renouvellement du matériel.
Recalcul du TAM CPU : 825 à 1100 milliards de dollars en 2030, avec une croissance liée à l’orchestration
Morgan Stanley, en utilisant une approche « stratification systémique », décompose l’opportunité CPU liée à l’agentiel, en séparant cette dernière de la logique de renouvellement classique des serveurs, et établit trois perspectives analytiques indépendantes :
Au total, en 2030, le TAM global des CPU pour serveurs sera d’environ 82,5 à 110 milliards de dollars, avec une croissance additionnelle de 32,5 à 60 milliards de dollars liée à l’agentiel. La base de cette estimation repose sur une projection du chiffre d’affaires des infrastructures de centres de données IA mondiaux en 2030, estimé à environ 1,2 trillion de dollars (contre 242 milliards en 2025).
Le rapport mentionne aussi un « levier de révision à la hausse » : si, selon NVIDIA, le marché des infrastructures IA atteint 3 ou 5 trillions de dollars en 2030, alors le TAM CPU pourrait être repoussé à 206 à 275 milliards, voire 344 à 458 milliards de dollars. Ce n’est pas une prévision de référence, mais cela montre que l’expansion de la « usine IA » amplifie systématiquement la demande en CPU.
La mémoire, qui était un rôle secondaire, devient une priorité : en 2030, la demande supplémentaire de DRAM sera de 15 à 45 EB
La véritable différenciation de l’agentiel ne réside pas seulement dans la capacité de raisonnement, mais aussi dans la « mémoire contextuelle durable ». La mémoire continue, le cache KV, les états intermédiaires d’appel d’outils et les ensembles de travail multi-agent, font du DRAM côté CPU une extension fonctionnelle du HBM.
Le modèle de calcul est simple : la demande supplémentaire de DRAM est égale au nombre supplémentaire de CPU d’orchestration multiplié par la capacité moyenne de DRAM par CPU. Deux hypothèses : 10 millions de CPU supplémentaires avec environ 1,5 TB chacun, ou 15 millions avec environ 3 TB. Cela permet d’estimer qu’en 2030, la demande supplémentaire en DRAM liée aux agents sera de 15 à 45 EB, soit 26 % à 77 % de la capacité annuelle de DRAM en 2027.
Concernant la dynamique du marché, le rapport souligne qu’un grand nombre de fournisseurs de mémoire négocient des accords à long terme de 3 à 5 ans avec leurs principaux clients, ce qui pourrait ralentir la baisse des prix et améliorer la visibilité sur la rentabilité avant 2027. « La hiérarchie de la mémoire devient une voie de monétisation clé pour les systèmes IA » — la DRAM principale, les puces d’interface mémoire, CXL, le stockage en couche SSD/HDD, seront autant de points de valeur plus durables.
Les maillons où l’offre est plus tendue auront plus de pouvoir de fixation des prix : cartes d’interconnexion ABF, fonderie et composants habilitants
Ce qui détient un potentiel de profit excessif, ce sont les maillons « à capacité limitée, à cycle de validation long ». Le rapport met en avant plusieurs chaînes :
Cartes d’interconnexion ABF : La phase ascendante de l’ABF, alimentée par l’IA, pourrait durer jusqu’à la fin de cette décennie, avec un risque de déficit d’offre vers 2026-2027. La simple expansion du TAM CPU pourrait entraîner une révision à la hausse de 5 à 10 % de la demande d’ABF en 2030 ; le marché des cartes ABF pour CPU dans les serveurs atteindrait environ 4,7 milliards de dollars, avec une demande additionnelle d’environ 1,2 milliard de dollars.
Fonderie de wafers (notamment en procédés avancés) : Le marché de la fonderie CPU, estimé à 33 milliards de dollars en 2026, atteindrait environ 37 milliards en 2028. TSMC devrait augmenter sa part dans la fonderie CPU de 70 % en 2026 à environ 75 % en 2028 ; Intel pourrait commencer à externaliser ses CPU serveur à TSMC dès le second semestre 2027.
BMC et interfaces mémoire : Aspeed est identifié comme le principal bénéficiaire dans le segment BMC pour CPU, avec environ 70 % de parts de marché. La nouvelle plateforme AST2700 pourrait augmenter l’ASP de 40 à 50 %. Montage est positionné dans la chaîne de valeur de l’interconnexion mémoire, avec une part de revenus mondiale d’environ 36,8 %.
Socket CPU et composants passifs : Le rapport utilise Lotes et FIT comme équivalents directs pour le socket CPU. En supposant qu’une augmentation de 1 million de CPU entraîne une hausse de 0,6 % des revenus Lotes et 0,2 % pour FIT (en se basant uniquement sur le socket). Pour les composants passifs, en supposant qu’un serveur généraliste contient environ 30 dollars de MLCC, la demande supplémentaire en MLCC en 2030 serait d’environ 500 millions de dollars, soit 2 à 3 % du marché mondial de MLCC à cette date.
Le CPU est la croissance la plus claire, mais ce sont surtout les « maillons habilitants » qui sont privilégiés
Le rapport admet que la croissance des charges de travail des agents sera structurellement favorable à la part de marché d’AMD dans le cloud, mais maintient une notation « Equal-weight » pour AMD et Intel, préférant suivre la thématique via des acteurs comme NVIDIA ou Broadcom, dont les investissements en capital et la croissance des tokens se traduisent plus directement en profitabilité, tout en considérant la valorisation comme un facteur clé.
D’un point de vue macro, la valeur centrale de ce rapport est de faire évoluer la paradigme d’investissement IA de la « course à la puissance brute » vers une « économie de l’efficacité systémique et des goulots d’étranglement » : le GPU est le moteur, le CPU la boîte de vitesses et le système de contrôle, la mémoire et l’interconnexion le circuit d’huile et le châssis — la performance extrême à un point reste importante, mais la véritable rentabilité à grande échelle dépend de la synergie globale.
Pour la chaîne de valeur, cela signifie que les profits excessifs liés à l’investissement IA seront plus dispersés et plus durables : pas seulement via les « GPU les plus puissants », mais aussi via ces maillons qui deviennent les premiers goulots dans le flux de travail des agents, et qui sont aussi les plus difficiles à augmenter rapidement. Les indicateurs de validation à haute fréquence pour suivre cette dynamique incluent : la révision à la hausse du nombre de CPU et de la capacité mémoire dans les nouvelles plateformes, le rythme des accords à long terme avec les fournisseurs cloud, et l’utilisation des capacités d’ABF et de procédés avancés.