黄仁勲の最新インタビュー(下):なぜNVIDIAは自社でHyperscalerを作らないのか?

ChainNewsAbmedia

黄仁勳氏のインタビュー第2段では、氏はTPUとASICがNVIDIAに与える脅威に対して正面から回答しました。氏は、NVIDIAが行っているのは単一のAIチップではなく、加速コンピューティングのプラットフォームであり、ポイントはまさに全体のエコシステムの統合にあると強調しました。米中の半導体戦のように、AI競争は一発勝負ではなく、重要なのは技術スタック全体を同時に大きくしていけるかどうかです。

「AIの本質は大量の行列乗算であり、なぜもっと専用的なTPUのようなアーキテクチャに主導権を任せないのか?」という疑問に対して、黄仁勳氏の答えはこうです。行列乗算は重要ですが、それがAIのすべてではありません。新しいattentionメカニズム、ハイブリッド式SSM、diffusionとautoregressiveの融合から、モデルの分散実行やアーキテクチャ革新まで、AIの進展は多くの場合、アルゴリズムの革新に由来し、単にハードウェアでムーアの法則を押し進めるだけではありません。

それではNVIDIAは大量の現金を持っており、さらにCoreWeave、Nebius、Nscaleへの投資を通じて、さらにはOpenAI、Anthropicなどの形でAIインフラやモデル層にも深く関与しているのに、なぜ思い切って自分で雲サービス事業者として参入しないのでしょうか?黄仁勳氏の答えは、やはりあの一文に戻ります。「必要なことは最大限やり、非必要なことは最小限にする」。これは「仮に私たちがやらなければ、誰もやらない」という範囲には属しません。

TPUとASICは確かに脅威だが、NVIDIAの戦場はもっと大きい

Google TPU、AWS Trainium、さらにはOpenAI、Anthropicなどのほか、大口顧客が自社開発したり、あるいは代替のアクセラレータを採用したりする動向に対して、黄仁勳氏は防御的な姿勢を見せていません。むしろ何度も焦点を「NVIDIAが行っているのは単一のAIチップではなく、加速コンピューティングのプラットフォームだ」という点に引き戻しています。

同氏は、NVIDIAが作っているのはaccelerated computingであり、tensor processingだけではないと強調します。AIはもちろん、今日でもっとも重要な用途の1つですが、GPUとCUDAが処理できるのはAIだけではありません。分子動力学、量子色動力学、データ処理、流体力学、粒子物理、創薬、画像生成、そして各種の科学計算まで含まれます。これによりNVIDIAの市場に対する守備範囲は、単一のワークロードのために設計されたASICよりも、もともとより広いものになっています。

「AIの本質は大量の行列乗算であり、なぜもっと専用的なTPUのようなアーキテクチャに主導権を任せないのか?」という疑問に対して、黄仁勳氏の答えは次のとおりです。

行列乗算は重要ですが、それがAIのすべてではありません。新しいattentionメカニズム、ハイブリッド式SSM、diffusionとautoregressiveの融合から、モデルの分散実行やアーキテクチャ革新まで、AIの進展は多くの場合、アルゴリズムの革新に由来し、単にハードウェアでムーアの法則を押し進めるだけではありません。

同氏は非常に率直に言います。もしトランジスタの縮小だけに頼っていれば、毎年の向上はせいぜい約25%程度です。しかしNVIDIAはHopperからBlackwellにかけて、35倍、さらには50倍といったレベルのエネルギー効率の飛躍を実現しています。そこにあるのは単なる製造プロセスではなく、モデル、アルゴリズム、ネットワーク、メモリ、システムアーキテクチャ、そしてCUDAの協調設計によるものです。

だからこそ黄仁勳氏は、NVIDIAを「極端な共同設計会社」と表現します。同社はGPUを作るだけでなく、プロセッサ、インターコネクト、ネットワーク、ライブラリ、アルゴリズム、そしてシステム全体を同時に改変します。CUDAという、非常に高い可プログラマブル性を備えたスタックがなければ、このような大幅なクロスレイヤー最適化は実現しにくいのです。

CUDAの価値:導入台数、信頼感、そしてグローバルな汎用性

司会者が、「OpenAI、Anthropic、Google、AWSといった大口顧客はすでに自分でkernelを書き、自分でフレームワークの最適化も行っています。それでもCUDAには、まだそれほど強い堀があるのでしょうか?」と疑問を投げかけます。黄仁勳氏は、3つの観点から回答しました。

第一に、生態系の完全性と信頼性です。NVIDIAはTriton、vLLM、SGLangなどのフレームワークに対して、豊富な基盤サポートを提供でき、研究者は検証済みの土台の上に構築できます。開発者にとって最も怖いのは、自分が間違ったのか、そもそも底層のプラットフォームが間違っているのかを判別できないことです。CUDAの価値の1つは、すでに「何度も回してきた」ことであり、十分に信頼に足るという点にあります。

第二に、膨大な導入台数です。黄仁勳氏は率直に言います。あなたがフレームワーク開発者、モデル開発者だとしたら、最も欲しいのはinstall base(導入基盤)です。ソフトウェアを自分だけが使うために書きたいとは思わないはずで、できるだけ多くのマシンで動いてほしいと考えるでしょう。A10、A100からH100、H200、さらにクラウドとエッジ、ロボットやワークステーションに至るまで、CUDAはほぼ至るところにあります。このような導入の土台があるということは、1回の開発で世界中の膨大なシステムをカバーできることを意味します。

第三に、クラウドをまたいだ、また利用シーンをまたいだ汎用性です。黄仁勳氏は、NVIDIAはごく例外を除いて、すべての主要なクラウドとon-prem環境の両方に同時に存在できる計算プラットフォームだと指摘します。AI企業にとってこれは、あまり早い段階で単一のクラウドサービス事業者にロックインする必要がなくなり、製品を異なる市場やシーンへ展開しやすくなることを意味します。

言い換えれば、CUDAの価値は単なる「ツールチェーンが便利」というだけではありません。それは、生態系の完成度、グローバルな導入台数、そしてシーンに対する汎用性が結びつき、簡単には揺るがせない強いフライホイール(好循環)を形成しているからです。

高い粗利はソフトウェア税ではなく、「1ワットあたりのトークン産出」と総保有コストで決まる

外部からは、NVIDIAが高い粗利を維持できる大きな理由がCUDAの独占にあると疑われています。そして将来的に、より多くの顧客が自分でkernelを書いたり、代替のソフトウェアスタックを構築できるようになれば、高い粗利は侵食されるのではないかと問われています。黄仁勳氏の回答は、非常に自信に満ちています。

同氏は、NVIDIA内部が各大手AI実験室に投入しているエンジニアの支援人員が「驚くほど多い」と述べました。なぜならGPUはCPUのように簡単には扱えないからです。黄仁勳氏はCPUをCadillacに例えています。安定していて乗りやすく、誰もが扱える。一方、NVIDIAのアクセラレータはF1レーシングカーのようで、理論上は誰でも運転できるものの、性能を限界まで引き出すには非常に高い専門能力が必要です。

またNVIDIAは大量にAIを用いて、自身がkernelを生成し、最適化も行っています。そのため顧客と共同でチューニングするとき、あるモデルやスタックをさらに50%、2倍、あるいは3倍といった性能向上へ持っていけることがしばしばあります。この最適化は、大規模なGPU艦隊を保有する顧客にとって、ほぼそのまま収入が倍増するのと同等です。

黄仁勳氏はさらに踏み込み、「NVIDIAのプラットフォームは全世界で最高のperformance per TCO、つまり最高の総保有コスト効率比を持っている」と主張します。氏は、「誰もTPU、Trainium、またはその他のプラットフォームが、全体のコストと性能の点でNVIDIAを上回ると、本当の意味で証明できていない」うえ、市場では公開され、信頼でき、真正面から比較できる展示も欠けている、と述べています。

氏の見立てでは、NVIDIAの成功は根本的に、顧客がCUDAに縛られているからではありません。同じエネルギー、同じ資本支出のもとで、最も多くのtokenを生み出し、さらに最大の収入へと転換できるからです。1GW級のAIデータセンターを構築する顧客にとって最も重要なのは、単一のチップが安いかどうかではなく、データセンター全体が最大の収入を生み出せるかどうかです。NVIDIAがtokens per wattとperf per dollarの面で依然として世界最高であり続ける限り、高い粗利には合理性があります。

なぜNVIDIAは自分でhyperscalerにならないのか?

NVIDIAは大量の現金を持っており、さらにCoreWeave、Nebius、Nscaleへの投資を通じて、さらにはOpenAI、Anthropicなどの形でAIインフラやモデル層に深く関与しています。それなのに、なぜ結局、自分でクラウドサービス事業者として参入しないのでしょうか?

黄仁勳氏の答えは、やはりあの言葉に戻ります。「必要なことは最大限やり、非必要なことは最小限にする。」

もしNVIDIAがCUDA、NVLink、CUDA-X、各種領域向けライブラリ、そして底層プラットフォームを作らなければ、これらはそもそも誰もやらない可能性が高い。そのためNVIDIAは自分で作る必要があります。しかしクラウドサービスであれば、世界にはすでにたくさんあります。これは「私たちがやらなければ誰もやらない」という範疇ではありません。

ただし、新しいタイプのAIクラウドサービス事業者がまだ弱く、立ち上がるには後押しが必要になっている段階なら、NVIDIAは資金、供給、技術サポートを提供し、このエコシステムが育つのを手助けする用意があります。つまりNVIDIAはecosystemを支えたいが、自らfinancierやhyperscalerになりたいわけではない、ということです。

OpenAI、Anthropicなどのモデル企業への投資についても、黄仁勳氏はそれが実際にはNVIDIAが近年学んだ結果だと認めています。過去のNVIDIAには、OpenAIやAnthropicのような基礎モデル企業は初期の段階では、従来のVCモデルでは必要な資本密度をまったく満たせないという認識がありませんでした。そこを本当に理解したときに、もし自分にチャンスがあれば、もっと早い段階で参入して支援できたはずだと気づいたのです。

氏はさらに、それは自分の誤判断の1つだとも打ち明けています。「当時深く理解していなかった。これらの会社は、大型テック企業や同等レベルの資本からの支援がなければ、そもそも成立しにくい。」いまNVIDIAはより大きな規模を手にしており、だからこそ同じ過ちを繰り返さないとも説明しています。

中国の問題、対談全体で最も鋭い一段

この対談全体で最も激しい攻防は、中国と半導体の輸出制限に集中していました。司会者の立場は、AIの計算能力は訓練と、リスクの高いモデルのデプロイに対する直接の投入財であり、中国がより先進的な計算能力を得れば、より迅速にネットワーク攻撃、脆弱性の掘り起こしなどの能力を備えたモデルを構築でき、それが米国の国家安全保障と企業のセキュリティに実質的なリスクをもたらす、というものです。

黄仁勳氏は、AIにリスクがあることも否定せず、米国が引き続き優位性を保つべきだという点も否定しませんが、AIチップを核兵器の材料に同一視したり、「少し多く売るだけで事が起きる」的な極端な推論には強く反対しています。

氏の核心となる論点はいくつかあります。

まず氏は、中国は計算能力の“真空地帯”ではないと考えています。中国には膨大なエネルギー、半導体製造能力、通信やネットワークのインフラがあり、さらに世界で非常に大きな比率を占めるAI研究人材も抱えています。黄仁勳氏の説明では、中国は「NVIDIAのチップがなければAIを発展させられない」のではなく、「最良のものが手に入らなければ、自分たちのものを使い、そして強いられる形でより早く国内の技術スタックを構築する」ということです。

次に、輸出制限の副作用として、中国のオープンソースモデル、エコシステム、そして半導体産業が、より急速に米国の技術スタックから切り離されることになる、と氏は考えています。これは氏の見立てでは、米国が長期的により懸念すべきリスクです。なぜならAIはモデルだけでなく、チップ層、開発ツール層、オープンソースのエコシステム層、アプリケーション層など、スタック全体から成り立つからです。米国が、たとえば最前線のモデル企業のような特定の層を守るために、チップや開発者エコシステムによる中国市場への影響力を犠牲にし、長期的にはかえって米国がグローバルな標準とプラットフォーム競争で位置を失う可能性がある、と氏は言います。

中国は世界第2位のテクノロジー市場であり、世界最大級のオープンソースソフトウェアとオープンソースモデルの貢献者の1つでもあります。もし米国がこの領域を自ら手放すなら、それは自ら開発者の大規模なコミュニティを別の技術スタックへ押し出すことに等しい。これはNVIDIAだけでなく、米国のテック産業全体、そして国家安全保障にも損害を与えます。

第三に、氏は繰り返し、この世界はゼロサムでも無限でもない極端な推論ではない、と強調しています。米国はもちろん最大で、最高で、最も早い計算能力を持つべきだと、氏は完全に同意します。しかしそれは、米国が自ら世界第2位の市場を手放すべきだとか、AIをある種の濃縮ウランのような絶対的な武器だと描くべきだという意味ではありません。氏にとって、過度に極端な物語は政策立案の助けにならないだけでなく、人材を遠ざけ、産業への信頼を弱め、最終的に米国自身が競争優位性を失うことにつながりかねません。

氏はさらに、この件を国内の産業政策の文脈にまで引き戻しています。「もし米国が恐れによってAIを過度に武器化してしまえば、それによってより多くの人が、ソフトウェア、エンジニアリング、関連分野への投入に抗(あらが)うようにもなる」。こうした恐怖に基づく政策は、氏の目には「負け犬のメンタリティ」であり、技術革命を率いる国家が取るべき姿勢ではありません。

黄仁勳氏が本当は言いたかったのは、おそらくこうです。「AI競争は一点の勝ち負けではなく、重要なのは技術スタック全体を同時に大きくできるかどうかです。」

この記事 黄仁勳氏最新インタビュー(下):なぜNVIDIAは自分でHyperscalerをやらないのか? は、最初に 鏈新聞 に掲載されました。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし