谷歌刚刚在拉斯维加斯的Cloud Next大会上采取了一个非常战略性的举措。它同时发布了两款第八代新TPU处理器,这标志着该公司对AI市场的看法出现了重要转折。



这是谷歌首次彻底区分训练芯片和推理芯片。TPU 8t面向训练AI模型,而TPU 8i则针对在生产环境中运行这些模型进行了优化。这种调整非常明确——他们认识到这两项任务的需求差异巨大。

性能数据很有意思。TPU 8t的能效(按每瓦计)相较上一代提升了124%,而TPU 8i的改进幅度为117%。与在11月发布的Ironwood相比,TPU 8t在相同价格下提供2.8倍的性能,而8i的能效提升了80%。这些增益并非轻而易举。

在TPU 8t上最引人关注的是,它可以在单一系统内扩展到9,600个单元。谷歌非常清楚,在这种规模的部署中,电力已经成为数据中心的关键限制因素。因此,能效被提升为最高优先级。

至于TPU 8i,则采取了不同的方案。每颗芯片配备384MB的SRAM——是Ironwood的三倍。这对推理而言完全说得通:芯片需要在不必一直向外部去检索数据的情况下,处理多个推理步骤。非常适合运行复杂的AI代理。

这两款处理器计划在2026年年底进入市场。Alphabet首席执行官Sundar Pichai明确表示,该架构的设计目标是“在经济可行的前提下,同时运行数百万个代理”。这才是关键——不仅是拥有更好的芯片,而是要在不超出预算的情况下做到这一点。

在软件方面,谷歌推出了Gemini Enterprise Agent Platform,并提供了新的功能。Memory Bank和Memory Profile使代理能够记住与用户过去的交互——解决了旧工具曾经存在的真实问题。此外还有Agent Simulation,用于上线前进行更充分的测试。

该平台的Projects功能整合Workspace、OneDrive以及企业聊天数据,为代理提供上下文信息。除此之外,他们还发布了面向普通员工的Gemini Enterprise,并将其定位为“每个人的AI助手”,无需编写代码。

这一切构成了对Nvidia、OpenAI和Anthropic的双重攻势——既有硬件,也有软件。谷歌很清楚,硅谷的工程师往往在Anthropic的Claude和OpenAI的Codex之间切换进行AI开发,却很少考虑谷歌的工具。这显然会让管理层感到不适。

TPU的采用正在加速。Citadel Securities已经在使用谷歌的TPU构建量化软件。美国能源部的17个国家实验室使用基于TPU的协作工具。Meta签署了长期协议以使用谷歌的TPU,而Anthropic则承诺提供以千兆瓦级别规模为目标的计算能力。

DA Davidson的分析师估计,上个月9月谷歌的TPU业务与DeepMind业务合计价值超过US$ 900 billion。

值得注意的是,谷歌并没有直接将其新TPU与Nvidia的产品进行对比。与此同时,Nvidia正准备推出一条新的产品线,融合来自Groq的技术——Groq曾被Nvidia以US$ 20 billion收购,产品定位特别面向超低延迟推理。Nvidia的Jensen Huang表示,超过20%的AI工作负载可以通过这种类型的芯片得到更好的处理。

谷歌正在测试在客户的数据中心部署TPU,并推动与第三方工具的兼容性。但供应链瓶颈,以及模型快速迭代与芯片开发周期通常要持续数年的不匹配,依然是扩规模时的真实挑战。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论