Berdasarkan laporan mendalam CNBC, dalam dua rapat tertutup di Silicon Valley minggu ini, beberapa CEO startup AI dan para insinyur secara blak-blakan menyebut dua masalah struktural besar yang dihadapi saat melakukan deployment massal untuk AI agent: “pemborosan token dalam jumlah besar” dan “kekacauan yang ekstrem antar sistem”. Catatan lapangan ini kontras tajam dengan ekspektasi optimistis yang disampaikan CEO Nvidia Huang Renxun pada bulan Maret bahwa AI agent adalah “ChatGPT berikutnya”, yang menunjukkan bahwa bottleneck nyata di jalur ini bukan terletak pada daya komputasi, melainkan pada desain pengambilan keputusan, efisiensi token, serta integrasi lintas banyak sistem.
Masalah terbesar adalah menyerahkan semuanya kepada LLM
CEO startup AI Meibel, Kevin McGrath, menunjuk dalam rapat: “Masalah terbesar yang sedang kami hadapi sekarang adalah salah mengira bahwa semua hal perlu diproses oleh model bahasa besar — memasukkan semua token dan semua uang ke satu bot AI, lalu ia membakar jutaan token.” Ia menegaskan bahwa ketika perusahaan merancang workflow agent, mereka harus menilai dengan lebih jelas tugas mana yang benar-benar membutuhkan LLM, dan tugas mana yang cukup diselesaikan dengan logika berbasis aturan yang lebih murah atau machine learning tradisional.
Pengamatan ini sejalan dengan respons pasar setelah Anthropic Claude versi enterprise beralih ke penagihan berbasis pemakaian — ketika konsumsi token langsung berubah menjadi biaya, model pengembangan “asal lempar ke agent” langsung memperlihatkan tekanan finansial. Pandangan Meibel mewakili sekelompok praktisi engineering yang anti-hype: seni arsitektur agent terletak pada pembatasan, bukan pelepasan tanpa kontrol.
Kekacauan kerja sama sistem multi-agent yang saling bergantung
Kata kunci lain yang berulang dalam laporan CNBC adalah “chaotic”. Ketika perusahaan menjalankan beberapa AI agent sekaligus — misalnya satu menangani layanan pelanggan, satu menangani penjadwalan, satu menangani keuangan — maka pertukaran pesan, konsistensi status, dan pemulihan dari kesalahan antar agent akan saling memengaruhi; setiap penyimpangan perilaku dari satu agent dapat menyebar secara berantai. Karpathy minggu ini juga menyinggung bahwa ia secara pribadi menjalankan workflow yang melibatkan 10–20 agent sekaligus, namun mengakui bahwa code review dan proses PR menjadi bottleneck baru.
Kekacauan pada sistem multi-agent seperti ini, pada dasarnya, adalah pengulangan masalah lama sistem terdistribusi di era LLM: tidak ada SLA yang jelas, tidak ada batas transaksi, dan tidak ada makna retry saat gagal. Walaupun Anthropic dan OpenAI telah merilis lapisan protokol seperti MCP dan Agent SDK, dalam praktik implementasi perusahaan, standardisasi masih jauh tertinggal dibanding pertumbuhan jumlah agent.
Gaji token 250.000 dolar AS milik Huang Renxun mulai didinginkan
CEO Nvidia Huang Renxun pada bulan Maret saat GTC dan wawancara lanjutan secara gencar mempromosikan konsep “gaji token”, dengan mengklaim, “Jika seorang insinyur bergaji tahunan 500.000 dolar AS tidak mengonsumsi setidaknya 250.000 dolar AS token, saya akan merasa sangat tidak nyaman.” Logikanya adalah: insinyur seharusnya menggantikan tindakan tingkat rendah mereka sendiri dengan AI agent, dan jumlah absolut token yang dikonsumsi adalah indikator proksi produktivitas. Uraian lengkap tentang kebutuhan komputasi AI dapat dilihat dalam wawancara terbaru Huang Renxun (bagian atas).
Namun, pendapat yang muncul di lokasi dalam laporan CNBC menunjukkan bahwa para insinyur Silicon Valley semakin bersikap hati-hati terhadap pernyataan tersebut: banyak atau sedikitnya konsumsi token tidak sama dengan produktivitas, bahkan bisa menjadi sinyal dari desain agent yang buruk. Nilai nyata insinyur tetap ada pada “memutuskan tugas mana yang layak dipanggil sebagai agent, cara memecah tugas, dan cara merancang penanganan kesalahan”— pekerjaan-pekerjaan itu sendiri tidak dapat diukur hanya dari besarnya konsumsi token.
Perpotongan crypto dan AI agent masih membutuhkan waktu
Bagi industri crypto, tren minggu ini di mana AI menyerap 80% global venture capital, serta tren proyek DeFi yang secara aktif mengintegrasikan agent otonom, dibangun dengan premis bahwa “teknologi agent telah mencapai tingkat yang bisa dideploy”. Tetapi laporan CNBC ini mengingatkan: bahkan di lingkungan perusahaan murni web2, efisiensi token agent dan integrasi antar banyak sistem masih belum stabil. Menempatkan agent dalam lingkungan on-chain yang beroperasi 7×24 dan asetnya bisa dicuri secara real-time akan memperbesar baik risiko teknis maupun risiko finansial. Titik awal nyata Crypto × AI mungkin masih menunggu kematangan standardisasi pada lapisan framework agent (seperti MCP, LangGraph, dan Cloudflare Agents).
Artikel ini “Realitas Silicon Valley AI Agent: Pemborosan Token Besar-besaran, Integrasi Sistem ‘Kekacauan Ekstrem’, Prediksi Huang Renxun ‘ChatGPT Berikutnya’ Perlu Dibuktikan” pertama kali muncul di 链新闻 ABMedia.
Artikel Terkait
Tencent Cloud Rilis Open-Source Cube Sandbox, Lingkungan Eksekusi Agen AI yang Kompatibel dengan OpenAI dan Manus
Li Auto Meluncurkan Agen AI Perjalanan Otomatis Amap dengan Fitur Navigasi Lanjutan
MetaComp Singapura Meluncurkan Kerangka Agen AI untuk Kepatuhan Keuangan dan Pembayaran
Tencent membuka uji coba internal versi luar negeri QClaw, Jepang memberi 700 dolar AS dalam token untuk bergabung lebih awal
Adobe Meluncurkan Rangkaian AI CX Enterprise untuk Mengotomatisasi Pemasaran Korporat dengan Kemitraan OpenAI, Anthropic
Dark Matter Labs Merilis dan Open-Source Model Kimi K2.6