Google Ironwood TPU : 10 fois les performances + quatre partenaires contre Nvidia

Selon le reportage approfondi de Bloomberg et les annonces officielles de Google, Google étend officiellement sa gamme de puces d’IA conçues en interne le 22 avril : l’Ironwood, une puce dédiée à l’inférence (7e génération de TPU), est désormais fournie en production complète sur Google Cloud, et Google lance en parallèle des collaborations de conception de nouvelle génération avec quatre partenaires : Broadcom, MediaTek, Marvell et Intel. L’objectif est de défier de front la position dominante de Nvidia sur le marché de la puissance de calcul en IA, grâce à une chaîne d’approvisionnement de puces personnalisées.

Ironwood : TPU de 7e génération, première puce conçue spécifiquement pour l’inférence

Ironwood est le produit de 7e génération de la série de TPU de Google, et il s’agit de la première puce dédiée à l’inférence dans le cadre de la stratégie de « séparation entraînement / inférence ». Les spécifications dévoilées par Google indiquent : des performances de pointe par puce 10 fois supérieures à celles du TPU v5p, 192GB de mémoire HBM3E, une bande passante mémoire de 7,2 TB/s, un seul superpod pouvant être étendu à 9 216 Ironwood refroidis par liquide, avec un total de 42,5 exaflops de calcul en FP8.

Google indique officiellement que l’Ironwood est « entièrement disponible pour les clients de Google Cloud ». Les livraisons prévues cette année devraient atteindre le niveau de « un million de puces ». Anthropic s’est engagé à adopter jusqu’à 1 million d’Ironwood TPU, tandis que Meta a signé un « contrat pluriannuel de plusieurs milliards de dollars » pour utiliser des TPU via Google Cloud.

Répartition des rôles entre les quatre partenaires : l’entraînement revient à Broadcom, l’inférence revient à MediaTek

La chaîne d’approvisionnement de puces de nouvelle génération de Google se répartit clairement comme suit :

Partenaire Code Rôle Particularités Broadcom Sunfish Entraînement dédié Prolonge la relation existante de collaboration avec les TPU, pilote des nœuds d’entraînement à grande échelle MediaTek (聯發科) Zebrafish Inférence dédiée Annonce un coût inférieur de 20–30% par rapport à la solution de Broadcom Marvell En négociation Unité de traitement de mémoire (MPU) + TPU d’inférence supplémentaires, pour une optimisation de l’inférence et de la mémoire HBM Intel Non publié Participation à la conception Renforcer la diversification de la chaîne d’approvisionnement

C’est le premier modèle observé dans l’industrie de l’IA : « quatre partenaires en parallèle, répartition claire entraînement / inférence ». En diversifiant le risque lié aux IP et en évitant la dépendance structurelle à un unique fournisseur, Google contourne la configuration de dépendance à un seul fournisseur de Nvidia. La feuille de route s’étend jusqu’à la fin 2027 avec le TPU v8, produit avec le procédé 2nm de TSMC.

Portée stratégique : ce n’est pas la puce unique qui défie Nvidia, mais la chaîne d’approvisionnement

Au cours des trois dernières années, le marché des puces d’IA a été dominé quasi exclusivement par Nvidia : l’écosystème logiciel CUDA et les doubles douves formées par les puces H100 / GB200. La stratégie d’Ironwood de Google et celle des quatre partenaires ne visent pas « à dépasser en un point précis » ; elles consistent plutôt à reproduire la logique de Nvidia dans l’industrie : une « plateforme standardisée + achats multi-clients » — pour que les TPU ne soient pas seulement utilisés en interne par Google, mais qu’ils deviennent une option de puissance de calcul commercialisée que des entreprises majeures d’IA comme Anthropic et Meta peuvent partager.

L’importance de l’engagement d’Anthropic pour 1 million de TPU est particulièrement cruciale : il s’agit de la plus grande promesse de puissance de calcul d’une seule entreprise d’IA en dehors de Nvidia. Elle complète les engagements d’Anthropic du 4/20 et ceux d’Amazon pour 5GW / 100 milliards d’AWS : d’un côté, liaison avec AWS Trainium ; de l’autre, liaison avec Google TPU. La stratégie de « double puce sur mesure » d’Anthropic réduit sa dépendance à Nvidia. Meta, de son côté, a intégré pour la première fois publiquement des TPU dans ses charges de travail d’entraînement / d’inférence en IA, ce qui envoie un autre signal.

Réaction du marché et lien avec l’industrie

Avant même cette divulgation, MediaTek était déjà considéré comme un « bénéficiaire des puces sur mesure de Google ». La révélation du code Zebrafish est la première fois que MediaTek est directement listé comme partenaire de conception de puces d’inférence pour Google. Cette continuité prolonge le récit récent de « l’alliance non Nvidia » autour de la photonique d’AMD × GlobalFoundries et de la MPU de Marvell × Google.

Nvidia dispose toujours, en parallèle, des GB200 et de la plateforme Rubin de nouvelle génération, mais la combinaison de puissance de calcul côté client évolue : elle passe d’un « tout Nvidia » à une approche à trois axes « Nvidia + TPU + AWS Trainium ». Pour la capacité de TSMC en 2nm, cela implique également que Google, Nvidia, Apple et Amazon, les quatre grands clients, font la queue pour des créneaux : le pouvoir de négociation du fournisseur en fonderie continue d’augmenter.

L’article Google Ironwood TPU : 10 fois la performance + quatre partenaires pour faire face à Nvidia est apparu en premier sur Chaîne d’actualités ABMedia.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Les introductions en bourse de SpaceX, OpenAI et Anthropic pourraient attirer plus de $240 milliard, avec un impact potentiel sur la liquidité du marché crypto

Message de Gate News, 25 avril — Selon des rapports de marché, SpaceX devrait entrer en bourse en juin avec un objectif de levée de fonds dépassant l’introduction en bourse record de $29 milliard de Saudi Aramco, tandis qu’OpenAI et Anthropic prévoient de s’inscrire sur le marché au second semestre 2026. Les trois sociétés sont prévues pour

GateNewsIl y a 56m

Aperçu de DeepSeek-V4 publié avec une fenêtre de contexte de 1M, la solution IA Huawei DCS apporte un support complet

Message de Gate News, 25 avril — La version préliminaire de DeepSeek-V4 a été officiellement publiée et open-sourcée, avec une fenêtre de contexte étendue de 1 million de jetons et l’introduction de la fenêtre glissante KV Cache avec des algorithmes de compression pour réduire la complexité de calcul de l’Attention et la pression sur la bande passante mémoire. Le nouveau modèle améliore significativement les capacités des agents et démontre une efficacité et une stabilité améliorées dans le raisonnement sur longues séquences et le traitement de tâches complexes, bien qu’il introduise de nouveaux défis d’infrastructure.

GateNewsIl y a 1h

La pénurie de GPU revient alors que Microsoft et Amazon resserrent l’approvisionnement ; les start-ups d’IA subissent une hausse de prix de 32 % et des files d’attente jusqu’en fin d’année

Message de Gate News, 25 avril — Une pénurie de GPU refait surface alors que de grands fournisseurs de cloud, dont Microsoft et Amazon, concentrent la capacité de calcul au profit de leurs équipes internes et de leurs principaux clients comme OpenAI et Anthropic, laissant les plus petites start-ups d’IA faire face à des hausses de prix, à des délais d’attente prolongés et à des conditions contractuelles plus strictes.

GateNewsIl y a 3h

Nvidia déploie l’agent IA Codex d’OpenAI auprès de l’ensemble de son personnel sur l’infrastructure Blackwell

Message de Gate News, 25 avril — Nvidia a déployé Codex d’OpenAI, un agent IA alimenté par GPT-5.5, auprès de l’ensemble de son personnel après un essai concluant avec environ 10 000 employés, d’après des communications internes du PDG Jensen Huang et du PDG d’OpenAI Sam Altman. Codex est conçu pour aider à

GateNewsIl y a 3h

Le Département d’État des États-Unis met en garde contre la distillation du modèle d’IA DeepSeek

Le Département d’État américain a publié une dépêche le 24 avril à destination des missions diplomatiques et consulaires du monde entier, avertissant les gouvernements étrangers au sujet des efforts chinois visant à copier des systèmes d’IA américains par distillation, selon Reuters. La dépêche

CryptoFrontierIl y a 4h

La start-up d’IA santé du professeur de Stanford recherche $100M à $1B de valorisation

Message « Gate News », 25 avril — Le professeur de Stanford James Zou lève environ $100 millions pour Human Intelligence, une start-up californienne qui développe des modèles d’IA pour la physiologie humaine, avec une valorisation d’environ $1 milliards. L’entreprise s’appuie sur les recherches de Zou en physiologie et en IA. L’algorithme EchoNet du laboratoire

GateNewsIl y a 4h
Commentaire
0/400
Aucun commentaire