根据 Bloomberg 深度报道与 Google 官方公告,Google 于 4 月 22 日正式扩张自研 AI 晶片阵容:推理专用 Ironwood(第七代 TPU)在 Google Cloud 全面供应,并同步启动与 Broadcom、MediaTek、Marvell、Intel 四家伙伴的下世代设计合作,目标是以客制晶片供应链正面挑战 Nvidia 在 AI 算力市场的主导地位。
Ironwood:第七代 TPU,首度专为推理设计
Ironwood 是 Google TPU 系列第七代产品,也是首款「训练推理分流」策略下的推理专用晶片。Google 揭露的规格:单晶片尖峰效能为 TPU v5p 的 10 倍,配置 192GB HBM3E 记忆体、记忆体带宽达 7.2 TB/s,单个 superpod 可扩展至 9,216 顆液冷 Ironwood,合计 FP8 运算量达 42.5 exaflops。
Google 官方表示 Ironwood 已「全面开放 Google Cloud 客户使用」,今年出货量预计达「百万颗」等级。Anthropic 已承诺采用多达 100 万颗 Ironwood TPU,Meta 则签署「数十亿美元多年合约」透过 Google Cloud 使用 TPU。
四家伙伴分工:训练归 Broadcom、推理归 MediaTek
Google 下世代晶片供应链明确分工如下:
伙伴 代号 角色 特色 Broadcom Sunfish 训练专用 延续既有 TPU 合作关系,主导大型训练节点 MediaTek(联发科) Zebrafish 推理专用 宣称比 Broadcom 方案成本低 20–30% Marvell 谈判中 记忆体处理单元(MPU)+ 额外推理 TPU 为 HBM 与 inference 优化 Intel 未公开 参与设计 强化供应链分散
这是 AI 产业中首见的「四家伙伴并行、训练推理明确分工」模式。Google 透过分散 IP 风险与竞争议价,避开 Nvidia 单一供应商的结构依赖。路线图延伸至 2027 年底的 TPU v8,将于台积电 2nm 制程生产。
策略意义:挑战 Nvidia 的不是单晶片,而是供应链
过去三年 AI 晶片市场由 Nvidia 近乎垄断,CUDA 软件生态与 H100/GB200 晶片构成双重护城河。Google 的 Ironwood 与四伙伴策略并非以「单点规格超越」为目标,而是复制 Nvidia 在产业中的「标准化平台 + 多客户采购」逻辑——让 TPU 不只是 Google 自用,而是可被 Anthropic、Meta 等主要 AI 公司共用的商业化算力选项。
Anthropic 承诺 100 万颗 TPU 的意义尤其关键:这是 Nvidia 以外单家 AI 公司最大算力承诺,与 Anthropic 4/20 与 Amazon 达成 5GW/1000 亿 AWS 承诺形成互补——一边绑定 AWS Trainium,一边绑定 Google TPU,Anthropic 以「双客制晶片」策略降低 Nvidia 依赖。Meta 则是首次公开将 TPU 纳入自家 AI 训练/推理工作负载,形成另一道讯号。
市场反应与产业连动
联发科在此次披露前已被视为「Google 客制晶片受益者」,Zebrafish 代号的曝光是首度将联发科直接列为 Google 推理晶片设计伙伴。这延伸近期 AMD × GlobalFoundries 硅光子、Marvell × Google MPU 的「非 Nvidia 晶片联盟」叙事线。
Nvidia 于同期仍有 GB200 与下世代 Rubin 平台支撑,但客户端的算力组合正从「全 Nvidia」走向「Nvidia + TPU + AWS Trainium」的三轨并行。这对台积电 2nm 产能也意味着 Google、Nvidia、Apple、Amazon 四大客户都在排队,晶圆代工供应议价力持续上升。
这篇文章 Google Ironwood TPU:10 倍效能 + 四家伙伴对抗 Nvidia 最早出现于 链新闻 ABMedia。
相关文章