Google Ironwood TPU:Performa 10x + Empat mitra untuk menantang Nvidia

ChainNewsAbmedia

Berdasarkan laporan mendalam Bloomberg dan pengumuman resmi Google, pada 22 April Google secara resmi memperluas jajaran chip AI buatannya: Ironwood yang khusus untuk komputasi inferensi (TPU generasi ketujuh) kini tersedia secara penuh di Google Cloud, sekaligus meluncurkan kerja sama desain generasi berikutnya dengan empat mitra—Broadcom, MediaTek, Marvell, dan Intel. Tujuannya adalah menantang posisi dominan Nvidia di pasar komputasi AI melalui rantai pasokan chip yang disesuaikan.

Ironwood: TPU generasi ketujuh, pertama kali dirancang khusus untuk inferensi

Ironwood merupakan produk generasi ketujuh dari rangkaian TPU milik Google, dan juga chip khusus inferensi pertama di bawah strategi “pemisahan pelatihan dan inferensi.” Spesifikasi yang diungkapkan Google: kinerja puncak per chip untuk TPU v5p adalah 10 kali lipat, dilengkapi memori 192GB HBM3E, lebar pita memori mencapai 7,2 TB/s, satu superpod dapat diskalakan hingga 9.216 unit Ironwood berpendingin cair (liquid-cooled), dengan total beban komputasi FP8 mencapai 42,5 exaflops.

Google secara resmi menyatakan Ironwood kini telah “dibuka sepenuhnya untuk pelanggan Google Cloud agar dapat digunakan,” dan perkiraan jumlah pengiriman tahun ini mencapai level “jutaan unit.” Anthropic telah berkomitmen menggunakan hingga 1 juta unit Ironwood TPU, sementara Meta menandatangani “kontrak multi-tahun bernilai miliaran dolar” untuk menggunakan TPU melalui Google Cloud.

Pembagian tugas empat mitra: pelatihan ke Broadcom, inferensi ke MediaTek

Rantai pasokan chip generasi berikutnya dari Google dibagi dengan jelas sebagai berikut:

Mitra Kode Peran Keunggulan Broadcom Sunfish Pelatihan khusus Melanjutkan kerja sama TPU yang sudah ada, memimpin node pelatihan skala besar MediaTek (聯發科) Zebrafish Khusus inferensi Mengklaim biaya 20–30% lebih rendah dibanding solusi Broadcom Marvell Dalam tahap negosiasi Unit pemrosesan memori (MPU) + tambahan TPU inferensi untuk optimalisasi HBM dan inference Intel Tidak dipublikasikan Ikut berperan dalam desain, memperkuat diversifikasi rantai pasokan

Ini adalah model pertama yang terlihat di industri AI: “empat mitra berjalan paralel, dengan pembagian tugas pelatihan-inferensi yang jelas.” Google menghindari ketergantungan struktural pada satu vendor tunggal seperti Nvidia melalui penyebaran risiko IP dan strategi tawar-menawar dengan pihak kompetitor. Peta jalan berlanjut hingga akhir 2027 untuk TPU v8, yang akan diproduksi menggunakan proses 2nm TSMC.

Makna strategis: yang ditantang bukan chip tunggal, melainkan rantai pasokan

Dalam tiga tahun terakhir, pasar chip AI hampir didominasi sepenuhnya oleh Nvidia, dengan ekosistem perangkat lunak CUDA dan dua lapis parit pertahanan berupa chip H100/GB200. Strategi Ironwood Google dan empat mitranya bukan bertujuan “melampaui” spesifikasi di satu titik, melainkan meniru logika industri Nvidia: “platform terstandarisasi + pembelian oleh banyak pelanggan”—agar TPU tidak hanya dipakai sendiri oleh Google, tetapi menjadi opsi komputasi berorientasi komersial yang bisa digunakan bersama oleh perusahaan AI utama seperti Anthropic dan Meta.

Makna komitmen 1 juta TPU dari Anthropic sangatlah krusial: ini adalah komitmen kapasitas komputasi terbesar dari satu perusahaan AI selain Nvidia. Komitmen tersebut saling melengkapi dengan kesepakatan 5GW/100 miliar AWS yang dicapai pada 4/20 Anthropic dan Amazon—di satu sisi terikat pada AWS Trainium, di sisi lain terikat pada Google TPU. Anthropic menurunkan ketergantungan pada Nvidia melalui strategi “dual chip kustom.” Meta juga untuk pertama kalinya secara terbuka memasukkan TPU ke dalam beban kerja pelatihan/inferensi AI mereka sendiri, membentuk sinyal lain.

Respons pasar dan keterkaitan industri

Sebelum pengungkapan kali ini, MediaTek telah dipandang sebagai “penerima manfaat chip kustom Google,” dan pengungkapan kode Zebrafish untuk pertama kalinya secara langsung menempatkan MediaTek sebagai mitra desain chip inferensi Google. Ini memperpanjang narasi “aliansi chip non-Nvidia” yang terkait baru-baru ini: AMD × GlobalFoundries (silikon fotonik) serta Marvell × Google (MPU).

Nvidia pada periode yang sama masih didukung oleh GB200 dan platform Rubin generasi berikutnya, tetapi kombinasi komputasi pada sisi pelanggan sedang bergeser dari “sepenuhnya Nvidia” menjadi paralel tiga jalur: Nvidia + TPU + AWS Trainium. Hal ini juga berarti kapasitas produksi 2nm TSMC makin ramai diperebutkan: empat pelanggan besar—Google, Nvidia, Apple, dan Amazon—antri, dan daya tawar pasokan untuk pembuatan wafer (foundry) terus meningkat.

Artikel Google Ironwood TPU: 10 kali kinerja + empat mitra melawan Nvidia pertama kali muncul di Lian News ABMedia.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.

Artikel Terkait

OpenClaw, Hermes, dan SillyTavern Dikonfirmasi sebagai Dukungan di GLM Coding Plan

Manajer Produk Zhipu AI, Li, mengumumkan OpenClaw, Hermes, dan SillyTavern sebagai proyek yang didukung dalam GLM Coding Plan; alat lain akan dievaluasi berdasarkan kasus per kasus. Jangan bagikan kredensial atau gunakan langganan sebagai akses API; hubungi dukungan untuk error 1313. Manajer produk Zhipu AI Li mengumumkan bahwa OpenClaw, Hermes, dan SillyTavern secara resmi didukung di bawah GLM Coding Plan, dengan alat lain dievaluasi berdasarkan kasus per kasus. Catatan tersebut memperingatkan agar tidak membagikan kredensial atau menggunakan langganan sebagai akses API serta mengarahkan pengguna yang mengalami error 1313 untuk menghubungi dukungan.

GateNews1jam yang lalu

CEO Google Cloud: Gemini akan Menggerakkan Peluncuran Siri Apple yang Dipersonalisasi pada 2026

Ringkasan: Gemini akan menggerakkan Siri Apple yang dipersonalisasi pada 2026, dibangun di atas Foundation Models milik Apple dan kolaborasi Gemini; Apple sedang menguji Siri bergaya obrolan di iOS 27/macOS 27, yang dijadwalkan untuk WWDC 2026. Abstrak: Gemini milik Google Cloud ditargetkan untuk menggerakkan Siri Apple yang dipersonalisasi pada 2026, menggabungkan Gemini dengan Foundation Models milik Apple dalam kolaborasi bernilai sekitar $1 miliar. Apple sedang menguji versi Siri yang didesain ulang dan bergaya obrolan di iOS 27/macOS 27, dengan antarmuka Dynamic Island dan fitur baru, menjelang pengungkapan di WWDC 2026 pada 8 Juni.

GateNews1jam yang lalu

Kesepakatan SpaceX $60B Cursor Menjadi Bahan Dorongan Pengampunan SBF, Taruhan $200K FTX Kini Bernilai $3B

Pesan Gate News, 22 April — SpaceX mengumumkan kemitraan besar dengan startup pengkodean AI Cursor hari ini, dengan opsi untuk mengakuisisi perusahaan tersebut seharga $60 miliar. Kesepakatan ini telah memberi amunisi baru kepada Sam Bankman-Fried (SBF), yang saat ini dipenjara dan mendesak pengampunan presiden, karena hal ini menunjukkan potensi pemulihan nilai yang telah lama ia argumenkan bahwa FTX seharusnya bisa capai. Dalam kesepakatan ini, amunisi baru untuk Sam Bankman-Fried SBF, yang saat ini dipenjara dan mendorong pengampunan presiden, karena hal ini menunjukkan potensi pemulihan nilai yang telah lama ia argumenkan FTX bisa capai.

GateNews1jam yang lalu

Saham Chegg Anjlok 99% karena AI Mengganggu Pasar Edtech

Ringkasan: Chegg melonjak seiring permintaan pendidikan online, lalu alat AI mengganggu modelnya, memicu PHK besar-besaran dan anjlok hingga turun di bawah $2, dengan pergeseran yang lebih luas didorong AI yang juga menekan penambang kripto dan perusahaan fintech. Abstrak: Artikel ini menelaah kebangkitan Chegg sebagai idola edtech pada era pandemi dan penurunannya berikutnya di tengah adopsi cepat AI generatif, yang memberikan jawaban cepat dan menggerus proposisi nilai Chegg. Artikel ini mendokumentasikan PHK pada 2025 dan penurunan saham yang mendekati penghapusan pencatatan, serta menempatkan pengalaman Chegg dalam konteks gangguan AI yang lebih luas: penambang Bitcoin beralih ke operasi AI, dan strategi yang lahir dari AI mendefinisikan ulang daya saing di fintech dan seterusnya.

CryptoFrontier1jam yang lalu

OpenAI Merilis Model Filter Privasi Open-Source untuk Deteksi dan Penyensoran PII

Abstrak: Filter Privasi OpenAI adalah model open-source yang dapat dijalankan secara lokal untuk mendeteksi dan menyensor PII dalam teks. Model ini mendukung konteks yang besar, mengidentifikasi banyak kategori PII, dan dimaksudkan untuk alur kerja yang menjaga privasi seperti persiapan data, pengindeksan, pencatatan, dan moderasi. Filter Privasi OpenAI adalah model open-source yang dijalankan secara lokal (konteks 128k-token) yang mendeteksi dan menyensor PII dalam teks, mencakup data kontak, data finansial, dan data kredensial untuk alur kerja privasi.

GateNews2jam yang lalu

OpenAI Berencana Menerapkan 30GW Kekuatan Komputasi pada 2030

OpenAI menargetkan 30GW komputasi pada tahun 2030 untuk memenuhi kebutuhan AI yang terus meningkat, dengan 8GW telah diselesaikan dari target 10GW pada tahun 2025. Ekspansi ini menandakan strategi untuk memperbesar infrastruktur bagi pengembangan dan penerapan AI generasi berikutnya. OpenAI berencana mencapai 30GW kekuatan komputasi pada tahun 2030 untuk mengakomodasi meningkatnya kebutuhan AI, dengan sudah menyelesaikan 8GW dari target 10GW untuk tahun 2025. Langkah ini mencerminkan perluasan strategis infrastruktur untuk mendukung pengembangan dan penerapan AI generasi berikutnya.

GateNews2jam yang lalu
Komentar
0/400
Tidak ada komentar