Pada bagian kedua dari wawancara dengan Huang Renxun, ia menanggapi secara langsung ancaman TPU dan ASIC terhadap NVIDIA. Ia menekankan bahwa yang dilakukan NVIDIA bukanlah satu chip AI saja, melainkan platform komputasi terakselerasi; fokusnya adalah integrasi seluruh ekosistem. Seperti halnya perang chip antara AS dan Tiongkok, kompetisi AI bukanlah soal menang atau kalah di satu titik; yang perlu dilihat adalah apakah seluruh tumpukan teknologinya bisa berkembang sekaligus.
Menanggapi tuduhan seperti, “Inti dari AI pada dasarnya adalah perkalian matriks dalam jumlah besar, jadi mengapa tidak membiarkan arsitektur yang lebih khusus seperti TPU memimpin?” jawaban Huang Renxun adalah: perkalian matriks itu penting, tetapi itu bukanlah keseluruhan AI. Mulai dari mekanisme attention yang baru, SSM hibrida, perpaduan diffusion dengan autoregressive, hingga eksekusi terdistribusi model dan pembaruan arsitektur, kemajuan AI sering kali berasal dari inovasi algoritma, bukan sekadar mendorong Hukum Moore pada perangkat keras.
Karena NVIDIA memegang banyak kas, dan juga sudah terlibat secara mendalam dalam infrastruktur AI serta lapisan model lewat investasi CoreWeave, Nebius, Nscale, bahkan OpenAI, Anthropic, dan sebagainya, lalu mengapa tidak langsung turun tangan menjadi penyedia layanan cloud? Jawaban Huang Renxun tetap kembali pada kalimat itu: melakukan yang paling perlu sebanyak mungkin, dan yang tidak perlu sesedikit mungkin. Ini tidak termasuk ranah “jika kami tidak melakukannya, maka tidak ada orang lain yang melakukannya.”
TPU dan ASIC memang menghadirkan ancaman, tetapi medan perang NVIDIA jauh lebih besar
Terkait tren Google TPU, AWS Trainium, bahkan OpenAI, Anthropic, serta pelanggan besar lainnya yang merancang sendiri atau menggunakan akselerator alternatif, Huang Renxun tidak menunjukkan sikap defensif; sebaliknya, berkali-kali ia mengalihkan fokus kembali ke “NVIDIA tidak membuat satu chip AI saja, melainkan platform komputasi terakselerasi.”
Ia menegaskan bahwa yang dibangun NVIDIA adalah accelerated computing, bukan hanya tensor processing. AI tentu salah satu aplikasi yang paling penting saat ini, tetapi GPU dan CUDA yang dipakai NVIDIA mampu menangani jauh lebih dari sekadar AI—termasuk dinamika molekuler, dinamika warna kuantum, pemrosesan data, dinamika fluida, fisika partikel, riset obat, generasi gambar, dan berbagai komputasi sains lainnya. Ini membuat jangkauan pasar NVIDIA secara alami lebih luas dibanding ASIC yang didesain khusus untuk satu jenis beban kerja.
Menanggapi tuduhan seperti, “Inti dari AI pada dasarnya adalah perkalian matriks dalam jumlah besar, jadi mengapa tidak membiarkan arsitektur khusus seperti TPU memimpin?” jawaban Huang Renxun adalah:
Perkalian matriks itu penting, tetapi itu bukanlah keseluruhan AI. Mulai dari mekanisme attention yang baru, SSM hibrida, perpaduan diffusion dengan autoregressive, hingga eksekusi terdistribusi model dan pembaruan arsitektur, kemajuan AI sering kali berasal dari inovasi algoritma, bukan sekadar mendorong Hukum Moore pada perangkat keras.
Ia mengatakannya dengan sangat lugas: jika hanya mengandalkan penyusutan transistor, kenaikannya kira-kira hanya sekitar 25% setiap tahun; tetapi NVIDIA dari Hopper hingga Blackwell mampu mencapai lompatan efisiensi 35 kali, bahkan hingga level 50 kali. Ini bukan karena semata-mata proses manufaktur, melainkan karena desain yang terkoordinasi antara model, algoritma, jaringan, memori, arsitektur sistem, dan CUDA.
Karena itu, Huang Renxun menggambarkan NVIDIA sebagai perusahaan “desain bersama yang ekstrem” (extreme co-design). Ia bukan cuma membuat GPU; ia melakukan perubahan serentak pada prosesor, interkoneksi, jaringan, library, algoritma, dan keseluruhan sistem. Tanpa lapisan CUDA yang sangat dapat diprogram, optimasi besar lintas-lapis seperti ini akan sulit diwujudkan.
Nilai CUDA: basis terpasang, rasa percaya, dan sifat universal global
Saat pembawa acara mempertanyakan, jika pelanggan besar seperti OpenAI, Anthropic, Google, AWS sudah bisa menulis kernel sendiri dan mengoptimasi framework sendiri, apakah CUDA masih punya benteng pertahanan yang kuat? Huang Renxun menjawab dari tiga sudut pandang.
Pertama, kelengkapan dan keandalan ekosistem. NVIDIA dapat menyediakan banyak dukungan level dasar untuk framework seperti Triton, vLLM, SGLang, sehingga peneliti bisa membangun di atas fondasi yang sudah diuji dan tervalidasi. Bagi pengembang, yang paling ditakuti bukanlah salah menulis kode sendiri, melainkan tidak bisa menentukan apakah kesalahan itu berasal dari kode mereka sendiri atau dari platform level bawah. Salah satu nilai CUDA adalah karena ia sudah “berulang kali dijalankan” (battle-tested), sehingga cukup layak dipercaya.
Kedua, besarnya jumlah perangkat terpasang (installed base). Huang Renxun menyebutkan secara gamblang: jika Anda adalah pengembang framework atau pengembang model, yang paling Anda inginkan pasti adalah install base. Anda tidak ingin menulis perangkat lunak hanya untuk dipakai sendiri, tetapi berharap perangkat lunak itu dapat berjalan di sebanyak mungkin mesin. Dari A10, A100 sampai H100, H200, lalu dari cloud hingga on-prem, dari robot sampai workstation, CUDA ada hampir di mana-mana. Basis instalasi semacam ini berarti, setelah sekali pengembangan, bisa mencakup banyak sistem di seluruh dunia.
Ketiga, sifat universal lintas cloud dan lintas skenario. Huang Renxun menunjukkan bahwa NVIDIA adalah salah satu dari sedikit platform komputasi yang bisa hadir di semua cloud utama dan lingkungan on-prem sekaligus. Bagi perusahaan AI, ini berarti mereka tidak harus mengunci diri terlalu awal pada satu penyedia layanan cloud, dan lebih mudah men-deploy produk ke berbagai pasar serta skenario.
Dengan kata lain, nilai CUDA tidak hanya “kenyamanan toolchain”, tetapi gabungan dari kelengkapan ekosistem, besarnya basis perangkat terpasang secara global, dan sifat universal lintas skenario—membentuk roda yang sulit sekali digoyahkan.
Margin kotor yang tinggi bukan karena pajak perangkat lunak, melainkan karena “token per watt” dan biaya kepemilikan total
Menanggapi keraguan bahwa NVIDIA bisa mempertahankan margin kotor tinggi sebagian besar berasal dari monopoli CUDA, dan bahwa jika lebih banyak pelanggan punya kemampuan untuk menulis kernel sendiri serta membangun tumpukan perangkat lunak alternatif, apakah margin tinggi itu akan tergerus, jawaban Huang Renxun sangat penuh keyakinan.
Ia menyoroti bahwa jumlah tenaga dukungan engineering yang NVIDIA investasikan ke berbagai lab riset AI “terlalu banyak untuk dipercaya”, karena GPU tidak semudah CPU untuk dikendalikan. Huang Renxun membandingkan CPU dengan Cadillac: stabil, mudah dikendarai, dan semua orang bisa menguasainya; sedangkan akselerator NVIDIA lebih seperti mobil balap F1—secara teori semua orang bisa mengemudikannya, tetapi untuk benar-benar memeras performa hingga batasnya, Anda membutuhkan kemampuan profesional yang sangat tinggi.
NVIDIA juga menggunakan AI secara besar-besaran untuk membantu menghasilkan dan mengoptimasi kernel sendiri; karenanya, saat melakukan penalaan bersama dengan pelanggan, sering kali mereka bisa meningkatkan performa model atau stack tertentu sebesar 50%, 2 kali lipat, bahkan 3 kali lipat. Optimasi seperti ini, bagi pelanggan yang memiliki armada GPU dalam skala besar, hampir setara dengan menggandakan pendapatan secara langsung.
Huang Renxun melangkah lebih jauh dengan berpendapat bahwa platform NVIDIA memiliki performance per TCO terbaik di seluruh dunia—yakni rasio efisiensi biaya kepemilikan total terbaik. Ia mengatakan tidak ada yang benar-benar bisa membuktikan bahwa TPU, Trainium, atau platform lain unggul dibanding NVIDIA dalam biaya dan efisiensi secara keseluruhan; di pasar juga tidak ada demonstrasi publik yang terbuka, tepercaya, dan bisa dibandingkan secara positif.
Menurut pandangannya, keberhasilan NVIDIA pada dasarnya bukan karena pelanggan terikat oleh CUDA, melainkan karena NVIDIA bisa menghasilkan token terbanyak pada energi yang sama dan belanja modal yang sama, lalu mengubahnya menjadi pendapatan terbanyak. Bagi pelanggan yang membangun pusat data kelas 1GW, yang paling penting bukanlah apakah satu chip saja nyaman atau tidak, melainkan apakah seluruh pusat data bisa menghasilkan pendapatan maksimum. Selama NVIDIA tetap yang terbaik secara global dalam tokens per watt dan perf per dollar, maka margin kotor tinggi masih punya dasar yang masuk akal.
Mengapa NVIDIA tidak menjadi hyperscaler sendiri?
Karena NVIDIA memegang banyak kas, dan juga sudah terlibat secara mendalam dalam infrastruktur AI serta lapisan model lewat investasi CoreWeave, Nebius, Nscale, bahkan OpenAI, Anthropic, dan sebagainya, lalu mengapa tidak langsung turun tangan menjadi penyedia layanan cloud?
Jawaban Huang Renxun masih kembali ke kalimat itu: “melakukan yang paling perlu sebanyak mungkin, dan yang tidak perlu sesedikit mungkin.”
Jika NVIDIA tidak membuat CUDA, NVLink, CUDA-X, berbagai library fungsional di berbagai bidang, serta platform level bawah, maka besar kemungkinan hal-hal itu memang tidak akan ada yang membuatnya. Karena itu NVIDIA harus melakukannya sendiri. Tetapi jika itu adalah layanan cloud, di dunia sudah ada banyak penyedia, sehingga ini bukan termasuk ranah “jika kami tidak melakukannya, maka tidak ada orang lain yang akan melakukannya.”
Namun, saat penyedia layanan cloud AI dengan bentuk baru masih lemah dan mungkin perlu bantuan agar bisa lepas landas, NVIDIA bersedia menyediakan dana, pasokan, dan dukungan teknis untuk membantu ekosistem itu tumbuh. Artinya, NVIDIA mau membina ekosistem, tetapi tidak ingin menjadi financier atau hyperscaler secara langsung.
Adapun investasi ke perusahaan model seperti OpenAI, Anthropic, dan sebagainya, Huang Renxun juga mengakui bahwa ini adalah hasil pembelajaran NVIDIA dalam beberapa tahun terakhir. Pada masa lalu, NVIDIA belum menyadari bahwa perusahaan model dasar seperti OpenAI dan Anthropic pada tahap awal pada dasarnya tidak bisa membiayai sendiri kebutuhan intensitas modal yang diperlukan hanya dengan model VC tradisional. Baru ketika ia benar-benar memahami hal itu, ia menyadari bahwa jika ia punya kesempatan, ia seharusnya bisa turun tangan untuk mendukung lebih awal.
Ia bahkan mengakui ini sebagai salah satu kesalahan penilaiannya: “Saat itu saya tidak memahami secara mendalam bahwa tanpa dukungan dari perusahaan teknologi besar atau modal dengan level yang serupa, perusahaan-perusahaan ini pada dasarnya sangat sulit berdiri.” Kini setelah NVIDIA memiliki skala yang lebih besar, ia mengatakan bahwa ia tidak akan mengulangi kesalahan yang sama.
Masalah Tiongkok, bagian paling tajam dalam seluruh percakapan
Pertahanan dan serangan paling sengit dalam seluruh wawancara ini berpusat pada Tiongkok dan pembatasan ekspor chip. Sikap pembawa acara adalah: komputasi AI adalah barang input langsung untuk melatih dan men-deploy model berisiko tinggi. Jika Tiongkok memperoleh komputasi yang lebih canggih, maka mereka dapat membangun model dengan kemampuan serangan siber, pencarian celah, dan sebagainya lebih cepat; ini akan menimbulkan risiko nyata bagi keamanan nasional AS dan keamanan perusahaan.
Huang Renxun tidak menyangkal bahwa AI memiliki risiko, juga tidak menyangkal bahwa AS harus terus menjaga keunggulannya. Tetapi ia sangat menentang menyamakan chip AI dengan bahan nuklir atau menarik kesimpulan ekstrem seperti “selama kita menjual sedikit lagi, pasti akan terjadi masalah.”
Poin inti argumennya ada beberapa.
Pertama, ia berpendapat bahwa Tiongkok bukanlah ruang hampa komputasi. Tiongkok memiliki pasokan energi yang besar, kemampuan manufaktur chip, infrastruktur komunikasi dan jaringan, serta memiliki proporsi yang sangat besar dari talenta penelitian AI di seluruh dunia. Dalam pemaparannya, Tiongkok bukan “tidak bisa mengembangkan AI jika tidak mendapatkan chip NVIDIA”, melainkan “jika tidak mendapatkan yang terbaik, mereka akan menggunakan buatan mereka sendiri, dan dipaksa untuk membangun tumpukan teknologi lokal lebih cepat.”
Kedua, ia menilai efek samping dari pembatasan ekspor adalah mendorong model open source Tiongkok, ekosistem, dan industri chip untuk semakin menjauh dari tumpukan teknologi AS. Menurutnya, ini adalah risiko yang justru lebih patut dikhawatirkan oleh AS dalam jangka panjang. Karena AI tidak hanya model; AI juga mencakup lapisan chip, lapisan alat pengembangan, lapisan ekosistem open source, lapisan aplikasi, dan seluruh tumpukan. Jika AS demi melindungi satu lapisan tertentu—misalnya perusahaan model paling terdepan—mengorbankan dampak chip dan ekosistem pengembangnya ke pasar Tiongkok, dalam jangka panjang AS justru bisa kehilangan posisinya dalam perang standar dan platform global.
Tiongkok adalah pasar teknologi terbesar kedua di dunia, serta salah satu kontributor terbesar perangkat lunak open source dan model open source. Jika AS secara sukarela melepaskan pasar ini, artinya AS secara sukarela mendorong seluruh komunitas pengembang ke tumpukan teknologi yang lain. Ini tidak hanya merugikan NVIDIA, tetapi juga merugikan seluruh industri teknologi AS serta keamanan nasional.
Ketiga, ia berulang kali menekankan bahwa dunia bukanlah skenario ekstrem dengan nol dan tanpa batas. Tentu saja AS harus memiliki komputasi paling banyak, paling baik, dan paling awal; ia sepenuhnya setuju. Tetapi itu tidak berarti AS harus secara aktif melepaskan pasar terbesar kedua di dunia, atau menggambarkan AI sebagai senjata mutlak semacam uranium yang diperkaya (dipadatkan). Baginya, narasi yang terlalu ekstrem tidak hanya tidak membantu perumusan kebijakan, tetapi juga bisa menakuti talenta, melemahkan kepercayaan industri, dan pada akhirnya membuat AS kehilangan keunggulan kompetitifnya sendiri.
Bahkan ia mengaitkan hal ini kembali dengan konteks kebijakan industri di dalam negeri: “Jika AS karena ketakutan membuat AI terlalu ter-weaponisasi, itu juga akan membuat lebih banyak orang menolak untuk terjun ke pengembangan perangkat lunak, rekayasa, dan bidang-bidang terkait.” Kebijakan berbasis ketakutan semacam ini, menurutnya, adalah semacam “mentalitas pecundang”, bukan sikap yang seharusnya dimiliki negara yang memimpin revolusi teknologi.
Yang sebenarnya ingin disampaikan Huang Renxun adalah: “Kompetisi AI bukanlah soal menang atau kalah di satu titik; yang perlu dilihat adalah apakah seluruh tumpukan teknologi bisa berkembang sekaligus.”
Artikel ini, wawancara terbaru Huang Renxun (bagian bawah): Mengapa Nvidia tidak membuat hyperscaler sendiri? pertama kali muncul di Liannews ABMedia.