Berdasarkan laporan mendalam Bloomberg dan pengumuman resmi Google, pada 22 April Google secara resmi memperluas jajaran chip AI buatannya: Ironwood yang khusus untuk komputasi inferensi (TPU generasi ketujuh) kini tersedia secara penuh di Google Cloud, sekaligus meluncurkan kerja sama desain generasi berikutnya dengan empat mitra—Broadcom, MediaTek, Marvell, dan Intel. Tujuannya adalah menantang posisi dominan Nvidia di pasar komputasi AI melalui rantai pasokan chip yang disesuaikan.
Ironwood: TPU generasi ketujuh, pertama kali dirancang khusus untuk inferensi
Ironwood merupakan produk generasi ketujuh dari rangkaian TPU milik Google, dan juga chip khusus inferensi pertama di bawah strategi “pemisahan pelatihan dan inferensi.” Spesifikasi yang diungkapkan Google: kinerja puncak per chip untuk TPU v5p adalah 10 kali lipat, dilengkapi memori 192GB HBM3E, lebar pita memori mencapai 7,2 TB/s, satu superpod dapat diskalakan hingga 9.216 unit Ironwood berpendingin cair (liquid-cooled), dengan total beban komputasi FP8 mencapai 42,5 exaflops.
Google secara resmi menyatakan Ironwood kini telah “dibuka sepenuhnya untuk pelanggan Google Cloud agar dapat digunakan,” dan perkiraan jumlah pengiriman tahun ini mencapai level “jutaan unit.” Anthropic telah berkomitmen menggunakan hingga 1 juta unit Ironwood TPU, sementara Meta menandatangani “kontrak multi-tahun bernilai miliaran dolar” untuk menggunakan TPU melalui Google Cloud.
Pembagian tugas empat mitra: pelatihan ke Broadcom, inferensi ke MediaTek
Rantai pasokan chip generasi berikutnya dari Google dibagi dengan jelas sebagai berikut:
Mitra Kode Peran Keunggulan Broadcom Sunfish Pelatihan khusus Melanjutkan kerja sama TPU yang sudah ada, memimpin node pelatihan skala besar MediaTek (聯發科) Zebrafish Khusus inferensi Mengklaim biaya 20–30% lebih rendah dibanding solusi Broadcom Marvell Dalam tahap negosiasi Unit pemrosesan memori (MPU) + tambahan TPU inferensi untuk optimalisasi HBM dan inference Intel Tidak dipublikasikan Ikut berperan dalam desain, memperkuat diversifikasi rantai pasokan
Ini adalah model pertama yang terlihat di industri AI: “empat mitra berjalan paralel, dengan pembagian tugas pelatihan-inferensi yang jelas.” Google menghindari ketergantungan struktural pada satu vendor tunggal seperti Nvidia melalui penyebaran risiko IP dan strategi tawar-menawar dengan pihak kompetitor. Peta jalan berlanjut hingga akhir 2027 untuk TPU v8, yang akan diproduksi menggunakan proses 2nm TSMC.
Makna strategis: yang ditantang bukan chip tunggal, melainkan rantai pasokan
Dalam tiga tahun terakhir, pasar chip AI hampir didominasi sepenuhnya oleh Nvidia, dengan ekosistem perangkat lunak CUDA dan dua lapis parit pertahanan berupa chip H100/GB200. Strategi Ironwood Google dan empat mitranya bukan bertujuan “melampaui” spesifikasi di satu titik, melainkan meniru logika industri Nvidia: “platform terstandarisasi + pembelian oleh banyak pelanggan”—agar TPU tidak hanya dipakai sendiri oleh Google, tetapi menjadi opsi komputasi berorientasi komersial yang bisa digunakan bersama oleh perusahaan AI utama seperti Anthropic dan Meta.
Makna komitmen 1 juta TPU dari Anthropic sangatlah krusial: ini adalah komitmen kapasitas komputasi terbesar dari satu perusahaan AI selain Nvidia. Komitmen tersebut saling melengkapi dengan kesepakatan 5GW/100 miliar AWS yang dicapai pada 4/20 Anthropic dan Amazon—di satu sisi terikat pada AWS Trainium, di sisi lain terikat pada Google TPU. Anthropic menurunkan ketergantungan pada Nvidia melalui strategi “dual chip kustom.” Meta juga untuk pertama kalinya secara terbuka memasukkan TPU ke dalam beban kerja pelatihan/inferensi AI mereka sendiri, membentuk sinyal lain.
Respons pasar dan keterkaitan industri
Sebelum pengungkapan kali ini, MediaTek telah dipandang sebagai “penerima manfaat chip kustom Google,” dan pengungkapan kode Zebrafish untuk pertama kalinya secara langsung menempatkan MediaTek sebagai mitra desain chip inferensi Google. Ini memperpanjang narasi “aliansi chip non-Nvidia” yang terkait baru-baru ini: AMD × GlobalFoundries (silikon fotonik) serta Marvell × Google (MPU).
Nvidia pada periode yang sama masih didukung oleh GB200 dan platform Rubin generasi berikutnya, tetapi kombinasi komputasi pada sisi pelanggan sedang bergeser dari “sepenuhnya Nvidia” menjadi paralel tiga jalur: Nvidia + TPU + AWS Trainium. Hal ini juga berarti kapasitas produksi 2nm TSMC makin ramai diperebutkan: empat pelanggan besar—Google, Nvidia, Apple, dan Amazon—antri, dan daya tawar pasokan untuk pembuatan wafer (foundry) terus meningkat.
Artikel Google Ironwood TPU: 10 kali kinerja + empat mitra melawan Nvidia pertama kali muncul di Lian News ABMedia.
Artikel Terkait
OpenClaw, Hermes, dan SillyTavern Dikonfirmasi sebagai Dukungan di GLM Coding Plan
CEO Google Cloud: Gemini akan Menggerakkan Peluncuran Siri Apple yang Dipersonalisasi pada 2026
Kesepakatan SpaceX $60B Cursor Menjadi Bahan Dorongan Pengampunan SBF, Taruhan $200K FTX Kini Bernilai $3B
Saham Chegg Anjlok 99% karena AI Mengganggu Pasar Edtech
OpenAI Merilis Model Filter Privasi Open-Source untuk Deteksi dan Penyensoran PII
OpenAI Berencana Menerapkan 30GW Kekuatan Komputasi pada 2030