Vitalik Buterin mengusulkan arsitektur AI yang dijalankan secara lokal, menekankan privasi, keamanan, dan kedaulatan diri, serta memperingatkan potensi risiko dari AI Agent.
Pendiri Ethereum Vitalik Buterin pada 2 April menulis artikel panjang di situs web pribadinya, membagikan pengaturan lingkungan kerja AI yang ia bangun dengan berpusat pada privasi, keamanan, dan kedaulatan diri—semua inferensi LLM dijalankan secara lokal, semua berkas disimpan secara lokal, seluruhnya di-sandbox, dan secara sengaja menghindari model cloud serta API eksternal.
Di awal artikel, ia lebih dulu memperingatkan: “Jangan langsung menyalin alat dan teknologi yang dideskripsikan dalam artikel ini, lalu menganggapnya aman. Ini hanya titik awal, bukan deskripsi produk yang sudah jadi.”
Vitalik menunjukkan bahwa pada awal tahun ini, AI menyelesaikan transisi penting dari “chatbot” menjadi “agent”—kini Anda tidak hanya mengajukan pertanyaan, melainkan menyerahkan tugas, membuat AI berpikir dalam jangka panjang, dan memanggil ratusan alat untuk menjalankannya. Ia memberi contoh OpenClaw (repo yang saat ini tumbuh paling cepat dalam sejarah GitHub) dan sekaligus menyebutkan beberapa masalah keamanan yang dicatat oleh para peneliti:
Vitalik menekankan bahwa sudut pandangnya untuk privasi berbeda dari peneliti keamanan siber tradisional: “Saya berasal dari posisi yang sangat takut ketika seluruh kehidupan pribadi seseorang ‘diberi makan’ ke AI cloud—tepat pada saat enkripsi end-to-end dan perangkat lunak yang mengutamakan lokal akhirnya menjadi arus utama, kita malah mungkin mundur sepuluh langkah.”
Ia menetapkan kerangka tujuan keamanan yang jelas:
Vitalik menguji tiga konfigurasi perangkat keras inferensi lokal yang berbeda, dengan model andalannya Qwen3.5:35B, dipadukan dengan llama-server dan llama-swap:
| Perangkat keras | Qwen3.5 35B(tokens/sec) | Qwen3.5 122B(tokens/sec) |
|---|---|---|
| NVIDIA 5090 laptop(24GB VRAM) | 90 | tidak dapat dijalankan |
| AMD Ryzen AI Max Pro(128GB memori terpadu, Vulkan) | 51 | 18 |
| DGX Spark(128GB) | 60 | 22 |
Kesimpulannya adalah: di bawah 50 tok/sec terlalu lambat, 90 tok/sec adalah ideal. Pengalaman NVIDIA 5090 laptop paling lancar; AMD saat ini masih punya lebih banyak masalah di pinggiran, tetapi di masa depan berpeluang membaik. MacBook kelas atas juga merupakan opsi yang efektif, hanya saja ia belum mencobanya secara langsung.
Terkait DGX Spark, ia blak-blakan: “Dideskripsikan sebagai ‘superkomputer AI desktop’, tapi kenyataannya tokens/sec lebih rendah daripada GPU laptop yang lebih bagus, dan masih harus mengurus detail tambahan seperti koneksi jaringan—ini mengecewakan.” Saran beliau: jika tidak mampu membeli laptop kelas atas, Anda bisa patungan dengan teman untuk membeli satu mesin yang cukup kuat, menempatkannya di lokasi dengan IP tetap, dan semua orang melakukan koneksi jarak jauh untuk menggunakannya.
Artikel Vitalik ini, berpadanan secara menarik dengan diskusi tentang masalah keamanan Claude Code yang dirilis pada hari yang sama—saat AI agent masuk ke alur kerja pengembangan harian, masalah keamanan juga sedang berubah dari risiko teoretis menjadi ancaman nyata.
Pesan utamanya sangat jelas: ketika alat AI menjadi semakin kuat dan semakin mampu mengakses data pribadi serta hak akses sistem Anda, “mengutamakan lokal, di-sandbox, kepercayaan minimal” bukanlah sikap berlebihan, melainkan titik awal yang rasional.