Selon le reportage approfondi de Bloomberg et les annonces officielles de Google, Google étend officiellement sa gamme de puces d’IA conçues en interne le 22 avril : l’Ironwood, une puce dédiée à l’inférence (7e génération de TPU), est désormais fournie en production complète sur Google Cloud, et Google lance en parallèle des collaborations de conception de nouvelle génération avec quatre partenaires : Broadcom, MediaTek, Marvell et Intel. L’objectif est de défier de front la position dominante de Nvidia sur le marché de la puissance de calcul en IA, grâce à une chaîne d’approvisionnement de puces personnalisées.
Ironwood : TPU de 7e génération, première puce conçue spécifiquement pour l’inférence
Ironwood est le produit de 7e génération de la série de TPU de Google, et il s’agit de la première puce dédiée à l’inférence dans le cadre de la stratégie de « séparation entraînement / inférence ». Les spécifications dévoilées par Google indiquent : des performances de pointe par puce 10 fois supérieures à celles du TPU v5p, 192GB de mémoire HBM3E, une bande passante mémoire de 7,2 TB/s, un seul superpod pouvant être étendu à 9 216 Ironwood refroidis par liquide, avec un total de 42,5 exaflops de calcul en FP8.
Google indique officiellement que l’Ironwood est « entièrement disponible pour les clients de Google Cloud ». Les livraisons prévues cette année devraient atteindre le niveau de « un million de puces ». Anthropic s’est engagé à adopter jusqu’à 1 million d’Ironwood TPU, tandis que Meta a signé un « contrat pluriannuel de plusieurs milliards de dollars » pour utiliser des TPU via Google Cloud.
Répartition des rôles entre les quatre partenaires : l’entraînement revient à Broadcom, l’inférence revient à MediaTek
La chaîne d’approvisionnement de puces de nouvelle génération de Google se répartit clairement comme suit :
Partenaire Code Rôle Particularités Broadcom Sunfish Entraînement dédié Prolonge la relation existante de collaboration avec les TPU, pilote des nœuds d’entraînement à grande échelle MediaTek (聯發科) Zebrafish Inférence dédiée Annonce un coût inférieur de 20–30% par rapport à la solution de Broadcom Marvell En négociation Unité de traitement de mémoire (MPU) + TPU d’inférence supplémentaires, pour une optimisation de l’inférence et de la mémoire HBM Intel Non publié Participation à la conception Renforcer la diversification de la chaîne d’approvisionnement
C’est le premier modèle observé dans l’industrie de l’IA : « quatre partenaires en parallèle, répartition claire entraînement / inférence ». En diversifiant le risque lié aux IP et en évitant la dépendance structurelle à un unique fournisseur, Google contourne la configuration de dépendance à un seul fournisseur de Nvidia. La feuille de route s’étend jusqu’à la fin 2027 avec le TPU v8, produit avec le procédé 2nm de TSMC.
Portée stratégique : ce n’est pas la puce unique qui défie Nvidia, mais la chaîne d’approvisionnement
Au cours des trois dernières années, le marché des puces d’IA a été dominé quasi exclusivement par Nvidia : l’écosystème logiciel CUDA et les doubles douves formées par les puces H100 / GB200. La stratégie d’Ironwood de Google et celle des quatre partenaires ne visent pas « à dépasser en un point précis » ; elles consistent plutôt à reproduire la logique de Nvidia dans l’industrie : une « plateforme standardisée + achats multi-clients » — pour que les TPU ne soient pas seulement utilisés en interne par Google, mais qu’ils deviennent une option de puissance de calcul commercialisée que des entreprises majeures d’IA comme Anthropic et Meta peuvent partager.
L’importance de l’engagement d’Anthropic pour 1 million de TPU est particulièrement cruciale : il s’agit de la plus grande promesse de puissance de calcul d’une seule entreprise d’IA en dehors de Nvidia. Elle complète les engagements d’Anthropic du 4/20 et ceux d’Amazon pour 5GW / 100 milliards d’AWS : d’un côté, liaison avec AWS Trainium ; de l’autre, liaison avec Google TPU. La stratégie de « double puce sur mesure » d’Anthropic réduit sa dépendance à Nvidia. Meta, de son côté, a intégré pour la première fois publiquement des TPU dans ses charges de travail d’entraînement / d’inférence en IA, ce qui envoie un autre signal.
Réaction du marché et lien avec l’industrie
Avant même cette divulgation, MediaTek était déjà considéré comme un « bénéficiaire des puces sur mesure de Google ». La révélation du code Zebrafish est la première fois que MediaTek est directement listé comme partenaire de conception de puces d’inférence pour Google. Cette continuité prolonge le récit récent de « l’alliance non Nvidia » autour de la photonique d’AMD × GlobalFoundries et de la MPU de Marvell × Google.
Nvidia dispose toujours, en parallèle, des GB200 et de la plateforme Rubin de nouvelle génération, mais la combinaison de puissance de calcul côté client évolue : elle passe d’un « tout Nvidia » à une approche à trois axes « Nvidia + TPU + AWS Trainium ». Pour la capacité de TSMC en 2nm, cela implique également que Google, Nvidia, Apple et Amazon, les quatre grands clients, font la queue pour des créneaux : le pouvoir de négociation du fournisseur en fonderie continue d’augmenter.
L’article Google Ironwood TPU : 10 fois la performance + quatre partenaires pour faire face à Nvidia est apparu en premier sur Chaîne d’actualités ABMedia.
Articles similaires
Les introductions en bourse de SpaceX, OpenAI et Anthropic pourraient attirer plus de $240 milliard, avec un impact potentiel sur la liquidité du marché crypto
Aperçu de DeepSeek-V4 publié avec une fenêtre de contexte de 1M, la solution IA Huawei DCS apporte un support complet
La pénurie de GPU revient alors que Microsoft et Amazon resserrent l’approvisionnement ; les start-ups d’IA subissent une hausse de prix de 32 % et des files d’attente jusqu’en fin d’année
Nvidia déploie l’agent IA Codex d’OpenAI auprès de l’ensemble de son personnel sur l’infrastructure Blackwell
Le Département d’État des États-Unis met en garde contre la distillation du modèle d’IA DeepSeek
La start-up d’IA santé du professeur de Stanford recherche $100M à $1B de valorisation