Depuis des années, la bataille pour l’infrastructure IA semblait déséquilibrée. Les principaux fournisseurs de cloud comme Alphabet, Amazon et Microsoft ont investi des milliards dans la conception de puces de centres de données sur mesure, mais aucun ne pouvait égaler la position de leader de Nvidia dans les unités de traitement graphique (GPUs). Ce récit a tout simplement changé de manière spectaculaire.
Le 18 novembre, Alphabet a dévoilé Gemini 3, son dernier modèle d’IA, et la véritable histoire ne concernait pas seulement la performance — elle a été livrée exclusivement sur les unités de traitement tensoriel personnalisées d’Alphabet (TPUs). Cette étape marque un tournant potentiel dans la bataille pour la suprématie des puces IA. Gemini 3 a égalé ou dépassé les capacités des dernières versions d’OpenAI et d’Anthropic, prouvant que des puces maison pouvaient rivaliser au plus haut niveau.
Qu’est-ce qui rend ce développement particulièrement significatif ? Meta Platforms serait en pourparlers pour acheter directement des TPUs à Alphabet, tandis qu’Anthropic vient d’annoncer une expansion majeure de son adoption de TPUs via Google Cloud. La transition d’une menace théorique à une demande réelle sur le marché est désormais en cours.
Contraintes d’approvisionnement face à une demande explosive
Google Cloud connaît une demande sans précédent pour sa capacité de calcul. Au cours du troisième trimestre 2025 (se terminant le 30 septembre), la plateforme a généré 15,1 milliards de dollars de revenus — une augmentation de 33,5 % en glissement annuel, qui s’est en fait accélérée par rapport au trimestre précédent. Pourtant, une contrainte critique subsiste : la disponibilité des TPU ne peut suivre le rythme.
Le retard de commandes pour la capacité de calcul a explosé à $155 milliard durant le T3, augmentant de 82 % en glissement annuel. Selon Amin Vahdat, directeur général de l’IA et de l’infrastructure chez Google Cloud, ce déséquilibre entre l’offre et la demande pourrait perdurer pendant les cinq prochaines années. Cette dynamique donne du pouvoir de fixation des prix à Alphabet tout en créant de la frustration chez les développeurs désespérés de ressources de calcul aujourd’hui.
L’ampleur de la demande potentielle est stupéfiante. Lorsqu’Anthropic a annoncé qu’il accéderait à jusqu’à 1 million de TPUs via Google Cloud pour entraîner ses modèles Claude, ce seul contrat a illustré l’ampleur de l’opportunité. Meta Platforms, actuellement dépendante des GPUs Nvidia pour l’entraînement de son modèle Llama, prévoit d’acheter pour des milliards de dollars de TPUs à partir de 2027 pour ses propres centres de données.
Le défi Nvidia : concurrentiel mais pas encore vulnérable (Pour l’instant)
La pression concurrentielle est réelle, mais la position de Nvidia ne s’effondre pas immédiatement. Si les retards de commandes continuent de croître, Nvidia ne ressentira probablement pas d’effets significatifs pendant plusieurs années. Les fournisseurs de cloud devant satisfaire la demande des clients continueront à s’approvisionner auprès de plusieurs fournisseurs, y compris Nvidia, simplement pour répondre aux besoins en capacité.
Les GPU restent la norme par défaut pour la majorité des charges de travail IA, en grande partie en raison de leur polyvalence et de la maturité de leur écosystème. Alphabet a conçu les TPUs pour ses usages spécifiques — haute performance et efficacité énergétique, oui, mais pas nécessairement optimaux pour tous les cas d’utilisation des développeurs. Le logiciel propriétaire CUDA de Nvidia reste le langage de programmation de référence dans l’industrie de l’IA. Passer aux TPUs signifie abandonner CUDA, ce qui crée des frictions pour les développeurs déjà investis dans la pile Nvidia.
Le PDG de Nvidia, Jensen Huang, prévoit que les dépenses en centres de données IA pourraient atteindre $4 trillion par an d’ici 2030. Avec Nvidia réalisant $213 milliard de revenus annuels (pour l’exercice fiscal se terminant en janvier 2026), la projection de Huang laisse une marge énorme de croissance même si l’entreprise cède la place en tant que leader du marché.
Perspective de valorisation pour les investisseurs
D’un point de vue de la valorisation, les deux entreprises offrent des opportunités intéressantes. Le ratio P/E de Nvidia est de 44,6 — une décote de 37 % par rapport à sa moyenne historique sur 10 ans de 61,2, ce qui suggère un potentiel de hausse pour les investisseurs patients. Alphabet, malgré un rendement de 70 % depuis le début de l’année, se négocie à un ratio P/E de seulement 31,2, ce qui la rend légèrement moins chère que l’indice Nasdaq-100 dans son ensemble.
Compte tenu de la poursuite attendue de l’expansion des dépenses en infrastructure IA, posséder les deux entreprises pourrait permettre de capter différents aspects de cette tendance de croissance séculaire. La question n’est pas si les dépenses en IA continueront à accélérer — c’est presque certain. La question est comment le paysage concurrentiel évoluera et qui en tirera le plus de valeur.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Alphabet a porté un coup décisif à la domination des puces IA de Nvidia
La percée TPU qui change tout
Depuis des années, la bataille pour l’infrastructure IA semblait déséquilibrée. Les principaux fournisseurs de cloud comme Alphabet, Amazon et Microsoft ont investi des milliards dans la conception de puces de centres de données sur mesure, mais aucun ne pouvait égaler la position de leader de Nvidia dans les unités de traitement graphique (GPUs). Ce récit a tout simplement changé de manière spectaculaire.
Le 18 novembre, Alphabet a dévoilé Gemini 3, son dernier modèle d’IA, et la véritable histoire ne concernait pas seulement la performance — elle a été livrée exclusivement sur les unités de traitement tensoriel personnalisées d’Alphabet (TPUs). Cette étape marque un tournant potentiel dans la bataille pour la suprématie des puces IA. Gemini 3 a égalé ou dépassé les capacités des dernières versions d’OpenAI et d’Anthropic, prouvant que des puces maison pouvaient rivaliser au plus haut niveau.
Qu’est-ce qui rend ce développement particulièrement significatif ? Meta Platforms serait en pourparlers pour acheter directement des TPUs à Alphabet, tandis qu’Anthropic vient d’annoncer une expansion majeure de son adoption de TPUs via Google Cloud. La transition d’une menace théorique à une demande réelle sur le marché est désormais en cours.
Contraintes d’approvisionnement face à une demande explosive
Google Cloud connaît une demande sans précédent pour sa capacité de calcul. Au cours du troisième trimestre 2025 (se terminant le 30 septembre), la plateforme a généré 15,1 milliards de dollars de revenus — une augmentation de 33,5 % en glissement annuel, qui s’est en fait accélérée par rapport au trimestre précédent. Pourtant, une contrainte critique subsiste : la disponibilité des TPU ne peut suivre le rythme.
Le retard de commandes pour la capacité de calcul a explosé à $155 milliard durant le T3, augmentant de 82 % en glissement annuel. Selon Amin Vahdat, directeur général de l’IA et de l’infrastructure chez Google Cloud, ce déséquilibre entre l’offre et la demande pourrait perdurer pendant les cinq prochaines années. Cette dynamique donne du pouvoir de fixation des prix à Alphabet tout en créant de la frustration chez les développeurs désespérés de ressources de calcul aujourd’hui.
L’ampleur de la demande potentielle est stupéfiante. Lorsqu’Anthropic a annoncé qu’il accéderait à jusqu’à 1 million de TPUs via Google Cloud pour entraîner ses modèles Claude, ce seul contrat a illustré l’ampleur de l’opportunité. Meta Platforms, actuellement dépendante des GPUs Nvidia pour l’entraînement de son modèle Llama, prévoit d’acheter pour des milliards de dollars de TPUs à partir de 2027 pour ses propres centres de données.
Le défi Nvidia : concurrentiel mais pas encore vulnérable (Pour l’instant)
La pression concurrentielle est réelle, mais la position de Nvidia ne s’effondre pas immédiatement. Si les retards de commandes continuent de croître, Nvidia ne ressentira probablement pas d’effets significatifs pendant plusieurs années. Les fournisseurs de cloud devant satisfaire la demande des clients continueront à s’approvisionner auprès de plusieurs fournisseurs, y compris Nvidia, simplement pour répondre aux besoins en capacité.
Les GPU restent la norme par défaut pour la majorité des charges de travail IA, en grande partie en raison de leur polyvalence et de la maturité de leur écosystème. Alphabet a conçu les TPUs pour ses usages spécifiques — haute performance et efficacité énergétique, oui, mais pas nécessairement optimaux pour tous les cas d’utilisation des développeurs. Le logiciel propriétaire CUDA de Nvidia reste le langage de programmation de référence dans l’industrie de l’IA. Passer aux TPUs signifie abandonner CUDA, ce qui crée des frictions pour les développeurs déjà investis dans la pile Nvidia.
Le PDG de Nvidia, Jensen Huang, prévoit que les dépenses en centres de données IA pourraient atteindre $4 trillion par an d’ici 2030. Avec Nvidia réalisant $213 milliard de revenus annuels (pour l’exercice fiscal se terminant en janvier 2026), la projection de Huang laisse une marge énorme de croissance même si l’entreprise cède la place en tant que leader du marché.
Perspective de valorisation pour les investisseurs
D’un point de vue de la valorisation, les deux entreprises offrent des opportunités intéressantes. Le ratio P/E de Nvidia est de 44,6 — une décote de 37 % par rapport à sa moyenne historique sur 10 ans de 61,2, ce qui suggère un potentiel de hausse pour les investisseurs patients. Alphabet, malgré un rendement de 70 % depuis le début de l’année, se négocie à un ratio P/E de seulement 31,2, ce qui la rend légèrement moins chère que l’indice Nasdaq-100 dans son ensemble.
Compte tenu de la poursuite attendue de l’expansion des dépenses en infrastructure IA, posséder les deux entreprises pourrait permettre de capter différents aspects de cette tendance de croissance séculaire. La question n’est pas si les dépenses en IA continueront à accélérer — c’est presque certain. La question est comment le paysage concurrentiel évoluera et qui en tirera le plus de valeur.