Google Ironwood TPU:10倍の性能 + 4つのパートナーがNvidiaに対抗

ChainNewsAbmedia

Bloomberg の深掘り報道と Google の公式発表によると、Google は 4 月 22 日に正式に自社開発 AI チップのラインナップを拡張した。推論専用 Ironwood(第7世代 TPU)を Google Cloud で全面的に提供し、あわせて Broadcom、MediaTek、Marvell、Intel の4社パートナーとの次世代設計協業も同時に開始する。狙いは、カスタム・チップのサプライチェーンを通じて、AI 計算能力市場における Nvidia の主導的地位に正面から挑戦することだ。

Ironwood:第7世代 TPU、初めて推論向けに設計

Ironwood は Google の TPU シリーズ第7世代製品であり、「訓練と推論の分流」戦略の下で初めて推論専用として設計されたチップだ。Google が明らかにした仕様:単一チップのピーク性能は TPU v5p の 10 倍。192GB HBM3E メモリを搭載し、メモリ帯域は 7.2 TB/s。単一の superpod は 液冷 Ironwood を 9,216 台までスケール可能で、合計 FP8 演算量は 42.5 exaflops。

Google 公式は Ironwood が「Google Cloud の顧客が利用できるよう全面的に開放された」と述べ、今年の出荷量見込みは「100万台」規模だという。Anthropic は最大 100 万枚の Ironwood TPU を採用することを約束している。Meta は「数十億ドルの複数年契約」を締結し、Google Cloud 経由で TPU を利用する。

4社パートナーの分業:訓練は Broadcom、推論は MediaTek

Google の次世代チップ供給チェーンには、明確な分業がある。

パートナー コード名 役割 特長 Broadcom Sunfish 訓練専用 既存の TPU 協業関係を継承し、大規模な訓練ノードを主導 MediaTek(聯発科) Zebrafish 推論専用 Broadcom の案よりコストが 20–30% 低いと主張 Marvell 談判中 メモリ処理ユニット(MPU)+ 追加の推論 TPU。HBM と inference を最適化 Intel 非公開の設計参加。供給チェーンの分散を強化

これは AI 産業で初めての「4社パートナー並行、訓練と推論の分業が明確」なモデルだ。Google は、IP リスクの分散と競争的な価格交渉によって、Nvidia の単一サプライヤーに依存する構造を回避する。ロードマップは 2027 年末までの TPU v8 に拡張され、台積電の 2nm プロセスで製造される。

戦略的意義:挑戦しているのは単一チップではなく、供給チェーン

過去3年、AI チップ市場は Nvidia がほぼ独占しており、CUDA ソフトウェア・エコシステムと H100/GB200 チップによる二重の堀がある。Google の Ironwood と4社パートナーの戦略は、「単一点の仕様で上回る」ことを目標にしているわけではなく、Nvidia が産業で展開してきた「標準化プラットフォーム+複数顧客の調達」というロジックを模倣することが狙いだ——TPU を単に Google 自社利用に留めず、Anthropic、Meta など主要な AI 企業が共有できる商用的な計算能力の選択肢にする。

Anthropic が 100 万枚の TPU を約束した意味は、とりわけ重要だ。これは Nvidia 以外の単一の AI 企業として最大級の計算能力コミットメントであり、Anthropic の 4/20 と Amazon が結んだ 5GW/1000 億 AWS の約束と補完し合う——一方で AWS Trainium に結びつき、他方で Google TPU に結びつく。Anthropic は「二重のカスタム・チップ」戦略で Nvidia への依存を下げる。Meta はまた、初めて TPU を自社の AI 訓練/推論ワークロードに組み込むことを公開し、別のシグナルを形成した。

市場反応と産業の連動

今回の開示以前から聯発科は「Google のカスタム・チップの恩恵を受ける側」と見なされていた。Zebrafish のコード名が明らかになったことで、聯発科が Google の推論チップ設計パートナーとして直接リストアップされたのは初めてだ。これに続いて、直近の AMD × GlobalFoundries によるシリコンフォトニクス、Marvell × Google の MPU による「非 Nvidia チップ連合」というストーリーラインが広がっている。

Nvidia は同時期に GB200 と次世代 Rubin プラットフォームで支えがあるものの、顧客側の計算能力の組み合わせは「全 Nvidia」から「Nvidia + TPU + AWS Trainium」の三本立て並行へと移っている。これは台積電の 2nm の生産能力にとっても意味がある。つまり、Google、Nvidia、Apple、Amazon の4大顧客が行列を作ることになり、半導体受託製造(ファウンドリ)の供給能力をめぐる交渉力が引き続き上がる。

この記事「Google Ironwood TPU:10 倍の性能 + 4社パートナーで Nvidia に対抗」は最初に 鏈新聞 ABMedia に掲載された。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。

関連記事

OpenClaw、Hermes、SillyTavernがGLM Coding Planのサポート対象として確認

Zhipu AIのPMリが、OpenClaw、Hermes、SillyTavernを対応済みのGLM Coding Planプロジェクトとして発表。その他のツールはケースバイケースで評価されます。資格情報を共有したり、サブスクリプションをAPIアクセスとして使用したりしないでください。エラー1313の場合はサポートに連絡してください。 Zhipu AIのプロダクトマネージャーLiは、OpenClaw、Hermes、SillyTavernがGLM Coding Planのもとで正式に対応プロジェクトとしてサポートされていると発表しました。注記では資格情報の共有や、サブスクリプションをAPIアクセスとして使用することへの注意が促され、エラー1313に遭遇したユーザーはサポートへ連絡するよう案内されています。

GateNews2時間前

Google CloudのCEO:Geminiが2026年のAppleのパーソナライズSiri展開を支える

要約:Geminiが2026年に個別化されたAppleのSiriを稼働させる。AppleのFoundation ModelsとGeminiの連携を土台に構築される。AppleはiOS 27/macOS 27でチャットのようなSiriをテストしており、2026年のWWDCで予定されている。 概要:Google CloudのGeminiは2026年までに個別化されたAppleのSiriを稼働させる予定で、GeminiをAppleのFoundation Modelsと融合させる。両者の連携はおおよそ$1 billion規模だという。Appleは、Dynamic Islandのインターフェースと新機能を備えた再設計のチャットのようなSiriを、iOS 27/macOS 27でテスト中だ。2026年6月8日のWWDC 2026での披露に先立つ。 要約:Geminiが2026年に個別化されたAppleのSiriを稼働させる。AppleのFoundation ModelsとGeminiの連携を土台に構築される。AppleはiOS 27/macOS 27でチャットのようなSiriをテストしており、2026年のWWDCで予定されている。 概要:Google CloudのGeminiは2026年までに個別化されたAppleのSiriを稼働させる予定で、GeminiをAppleのFoundation Modelsと融合させる。両者の連携はおおよそbillion規模だという。Appleは、Dynamic Islandのインターフェースと新機能を備えた再設計のチャットのようなSiriを、iOS 27/macOS 27でテスト中だ。2026年6月8日のWWDC 2026での披露に先立つ。

GateNews3時間前

SpaceX $60B Cursorの取引がSBFの恩赦後押しを加速。FTXの $200K スタークは現在価値が30億ドルに

Gate Newsのメッセージ、4月22日 — SpaceXは本日、AIコーディングのスタートアップCursorとの大規模な提携を発表し、同社を$60 billionで買収する選択肢がある。 この取引は、現在収監されていて大統領の恩赦を求めているSam Bankman-Fried (SBF)に新たな追い風を与えた。 それは、彼が長年主張してきたように、FTXが得られたはずの価値の回復可能性を示しているからだ。

GateNews3時間前

Cheggの株価が99%下落、AIがEdtech市場を混乱させる

要約:Cheggはオンライン教育需要の高まりの中で急騰したが、その後AIツールがモデルを混乱させ、大規模なレイオフと、$2を下回る崩落につながった。さらに広範なAI主導の変化が、暗号資産マイナーやフィンテック企業にも打撃を与えた。 概要:この記事では、パンデミック期のedtechの寵児としてのCheggの躍進と、生成AIの急速な普及の中でのその下落を検証する。生成AIは素早い回答を提供し、Cheggの価値提案を覆す。2025年のレイオフと、上場廃止に向けた株価の急落を記録し、Cheggの経験をより大きなAIによる破壊として位置づける。そこでは、ビットコインのマイナーがAI運用へ転換し、AIネイティブな戦略が、フィンテックやそれ以外の領域における競争力の定義を作り替えている。

CryptoFrontier3時間前

OpenAIが、PII検出とマスクのためのオープンソース・プライバシーフィルターモデルを公開

概要:OpenAIのプライバシーフィルターはオープンソースで、ローカルで実行できるモデルで、テキスト内のPIIを検出してマスクします。大きなコンテキストに対応し、多くのPIIカテゴリを特定でき、データの準備、インデックス作成、ログ記録、モデレーションなどのプライバシー保護型ワークフローを想定しています。 OpenAIのプライバシーフィルターは、ローカルで実行されるオープンソースのモデル (128k-token context) で、テキスト内のPIIを検出してマスクし、プライバシーワークフローのために連絡先、金融、認証情報のデータをカバーします。

GateNews4時間前

OpenAIは2030年までに計算能力30GWを展開する計画

OpenAIは、増大するAI需要に対応するため、2030年までに計算能力30GWを目指しており、2025年の目標10GWのうちすでに8GWを完了しています。この拡大は、次世代AIの開発とデプロイに向けてインフラを拡張する戦略を示しています。 OpenAIは、増加するAI需要に対応するため、2030年までに計算能力30GWに到達する意向であり、すでに2025年の目標10GWのうち8GWを完了しています。この動きは、次世代AIの開発とデプロイを支えるためのインフラを戦略的に拡大することを反映しています。

GateNews4時間前
コメント
0/400
コメントなし