在黄仁勳訪談第二段,他正面回应了 TPU 与 ASIC 对輝达的威脅。他強调 NVIDIA 做的不是單一張 AI 晶片,而是加速运算平台,重点在於整个生態系的整合。正如同美中晶片戰,AI 競賽不是單点勝负,要看的是整个技術棧能否同时壯大。
面对「AI 本质上就是大量矩陣乘法,为什麼不让更專用的 TPU 類架構来主導?」这樣的质疑,黄仁勳的回答是:矩陣乘法很重要,但它不是 AI 的全部。从新 attention 机制、混合式 SSM、diffusion 与 autoregressive 融合,到模型分散式執行与架構革新,AI 的进展往往来自演算法創新,而不只是硬體按摩爾定律往前推。
既然 NVIDIA 手握大量现金,也已透过投资 CoreWeave、Nebius、Nscale,甚至 OpenAI、Anthropic 等方式深度參与 AI 基礎设施与模型層,那它为什麼不乾脆自己下场当雲服務商?黄仁勳的答案仍回到那句話:做必要的最多,非必要的最少。这不屬於「若我們不做,就沒人做」的範疇。
TPU 与 ASIC 不是沒威脅,但 NVIDIA 的戰场更大
針对 Google TPU、AWS Trainium,甚至 OpenAI、Anthropic 与其他大客戶自研或採用替代加速器的趨勢,黄仁勳並未表现出防禦姿態,反而多次把焦点拉回「NVIDIA 做的不是單一張 AI 晶片,而是加速运算平台」。
他強调,NVIDIA 打造的是 accelerated computing,而不是只做 tensor processing。AI 当然是今天最重要的应用之一,但 GPU 与 CUDA 能處理的远不只 AI,还包括分子动力学、量子色动力学、资料處理、流體力学、粒子物理、藥物研发、影像生成与各種科学运算。这让 NVIDIA 的市场觸角天生就比为單一工作负載设计的 ASIC 更廣。
面对「AI 本质上就是大量矩陣乘法,为什麼不让更專用的 TPU 類架構来主導?」这樣的质疑,黄仁勳的回答則是:
矩陣乘法很重要,但它不是 AI 的全部。从新 attention 机制、混合式 SSM、diffusion 与 autoregressive 融合,到模型分散式執行与架構革新,AI 的进展往往来自演算法創新,而不只是硬體按摩爾定律往前推。
他说得非常直接:若只靠晶體管縮放,每年大约也就 25% 左右的提升;但 NVIDIA 从 Hopper 到 Blackwell,能做到 35 倍、甚至 50 倍等級的能效躍升,靠的不是單純製程,而是模型、演算法、網路、記憶體、系统架構与 CUDA 協同设计。
也因此,黄仁勳把 NVIDIA 描述成一家「極端共同设计公司」。它不只是做 GPU,而是同步改动處理器、互连、網路、函式庫、演算法与整个系统。如果沒有 CUDA 这層高度可編程的堆疊,这種大幅度跨層優化就很难实现。
CUDA 的价值:裝机量、信任感与全球通用性
当主持人质疑,既然大客戶如 OpenAI、Anthropic、Google、AWS 都已经会自己寫 kernel、自己做框架優化,CUDA 还有那麼強的護城河嗎?黄仁勳則从三个角度回应。
第一,是生態系的完整与可靠。NVIDIA 可以为 Triton、vLLM、SGLang 等框架提供大量底層支援,让研究者可以建立在一个已经被充分验证的基礎上。对开发者而言,最怕的不是自己寫错,而是根本无法判斷错在自己还是错在底層平台。CUDA 的价值之一,就在於它已经被「反覆跑透」,足夠值得信任。
第二,是龐大裝机量。黄仁勳直言,如果你是框架开发者、模型开发者,最想要的絕对是 install base。你不会想把软體只寫給自己用,而是希望它能跑在盡可能多的机器上。从 A10、A100 到 H100、H200,再到雲端与地端、机器人与工作站,CUDA 幾乎无所不在。这種裝机基礎意味著,一次开发,可以覆蓋全球大量系统。
第三,是跨雲端与跨场景的通用性。黄仁勳指出,NVIDIA 是極少數能同时存在於所有主流雲端与 on-prem 環境的运算平台。对 AI 公司来说,这代表它們不必太早锁定單一雲端服務商,也更容易把产品部署到不同市场与场景中。
換句話说,CUDA 的价值不只是「工具链方便」,而是它結合了生態完整度、全球裝机量与场景通用性,形成一个很难轻易撼动的飞輪。
高毛利不靠软體稅,靠「每瓦 token 产出」与總持有成本
对於外界质疑 NVIDIA 之所以能維持高毛利,很大程度来自 CUDA 壟斷,而未来若更多客戶有能力自行寫 kernel、打造替代软體堆疊,高毛利是否会被侵蝕,黄仁勳的回应極具自信。
他指出,NVIDIA 內部投入到各大 AI 实验室的工程支援人力「多到驚人」,因为 GPU 並不像 CPU 那樣容易駕馭。黄仁勳把 CPU 比喻成 Cadillac,平穩、好开、人人都能上手;而 NVIDIA 的加速器更像 F1 賽车,理論上人人都能开,但真正要把性能壓榨到極限,需要極高專业能力。
NVIDIA 也大量使用 AI 協助自身生成与優化 kernel,因此在与客戶共同调校时,常常能把某个模型或 stack 再提升 50%、2 倍,甚至 3 倍性能。这種優化对擁有大規模 GPU 艦队的客戶而言,幾乎等同於直接翻倍收入。
黄仁勳更进一步主張,NVIDIA 的平台在全世界擁有最佳 performance per TCO,也就是最佳總持有成本效益比。他说,沒有人能真正证明 TPU、Trainium 或其他平台在整體成本与效能上優於 NVIDIA,市场上也缺乏公开、可信、可正面对比的展示。
在他看来,NVIDIA 的成功根本上不是因为客戶被 CUDA 綁住,而是因为它能在相同能源、相同资本支出下,产出最多 token,进一步转化成最多收入。对建设 1GW 級 AI 资料中心的客戶来说,最重要的不是單顆晶片便不便宜,而是整座资料中心能不能产生最大收入。只要 NVIDIA 在 tokens per watt 与 perf per dollar 上仍是全球最佳,高毛利就有其合理性。
为何 NVIDIA 沒自己變成 hyperscaler?
既然 NVIDIA 手握大量现金,也已透过投资 CoreWeave、Nebius、Nscale,甚至 OpenAI、Anthropic 等方式深度參与 AI 基礎设施与模型層,那它为什麼不乾脆自己下场当雲服務商?
黄仁勳的答案仍回到那句話:「做必要的最多,非必要的最少。」
如果 NVIDIA 不去做 CUDA、NVLink、CUDA-X、各類领域函式庫与底層平台,那这些东西很可能根本不会有人做,因此 NVIDIA 必須親自做。但如果是雲端服務,世界上已经有很多,这不屬於「若我們不做,就沒人做」的範疇。
不过,当新型態 AI 雲服務商还很弱小、可能需要幫一把才能起飞时,NVIDIA 願意提供资金、供应与技術支持,幫助这个生態系长出来。也就是说,NVIDIA 願意扶植 ecosystem,但不想親自變成 financier 或 hyperscaler。
至於投资 OpenAI、Anthropic 等模型公司,黄仁勳也承认,这其实是 NVIDIA 近年的学習結果。过去 NVIDIA 並沒有意识到,像 OpenAI、Anthropic 这種基礎模型公司在早期根本无法靠傳统 VC 模式完成所需资本密度。等到他真正理解这一点时,才意识到自己若有机会,本来可以更早下场支持。
他甚至坦言,这算是自己的错誤判斷之一:「当时沒有深刻理解,这些公司若沒有来自大型科技公司或類似等級资本的支援,根本很难成立。」如今 NVIDIA 有了更大的規模,他也说明自己不会再犯同樣错誤。
中国问題,整场对談最尖锐的一段
整场訪談最激烈的攻防,集中在中国与晶片出口限制。主持人的立场是,AI 算力是訓練与部署高风险模型的直接投入品,如果中国獲得更多先进算力,就可能更快打造具備網路攻擊、漏洞挖掘等能力的模型,这会对美国国安与企业安全構成实质风险。
黄仁勳並不否认 AI 具備风险,也不否认美国应該持续保持领先,但他非常反对把 AI 晶片等同於核武材料或「只要多卖一点就会出事」的極端推論。
他的核心論点有幾个。
首先,他认为中国並不是沒有算力的真空地帶。中国擁有龐大能源、晶片製造能力、通訊与網路基礎设施,也擁有全球極大比例的 AI 研究人才。在黄仁勳的敘述裡,中国不是「如果拿不到 NVIDIA 晶片就无法发展 AI」,而是「如果拿不到最好的,就会改用自己的,並且被迫更快建立本土技術棧」。
其次,他认为出口限制的副作用,是迫使中国的开源模型、生態系与晶片产业加速脫离美国技術棧。这在他看来,是美国长期更該擔心的风险。因为 AI 不是只有模型,还包括晶片層、开发工具層、开源生態層、应用層等整个堆疊。若美国为了保護某一層,例如最前沿模型公司,而犧牲掉整个晶片与开发者生態对中国市场的影響力,长期反而可能让美国在全球標準与平台戰中失去位置。
中国是全球第二大科技市场,也是全球最大的开源软體与开源模型貢獻者之一。若美国主动放棄这塊市场,就等於主动把一整个开发者群體推向另一套技術棧。这不只傷害 NVIDIA,也傷害整个美国科技产业与国安。
第三,他反覆強调,世界不是零与无限的極端推演。美国当然应該擁有最多、最好、最早的算力,这点他完全同意;但这不代表美国就应該主动放棄全球第二大市场,或把 AI 描述成某種類似濃縮鈾的絕对武器。对他来说,过度極端的敘事不只无助於政策制定,还可能嚇跑人才、削弱产业信心,最終让美国自己失去競爭優勢。
他甚至把这件事拉回国內产业政策脈絡:「如果美国因恐懼而把 AI 过度武器化,也会连帶让更多人抗拒投入软體、工程与相关领域。」这種恐懼式政策,在他眼裡是一種「输家心態」,而不是领導技術革命的国家該有的姿態。
黄仁勳真正想说的是:「AI 競賽不是單点勝负,要看的是整个技術棧能否同时壯大。」
这篇文章 黄仁勳最新專訪(下):为什麼輝达不自己做 Hyperscaler? 最早出现於 链新聞 ABMedia。