V God membagikan: Cara saya membangun lingkungan kerja AI yang sepenuhnya lokal, privat, dan dapat dikendalikan secara mandiri

Vitalik Buterin mengusulkan arsitektur AI yang dijalankan secara lokal, menekankan privasi, keamanan, dan kedaulatan diri, serta memperingatkan potensi risiko dari AI Agent.

Pendiri Ethereum Vitalik Buterin pada 2 April menulis artikel panjang di situs web pribadinya, membagikan pengaturan lingkungan kerja AI yang ia bangun dengan berpusat pada privasi, keamanan, dan kedaulatan diri—semua inferensi LLM dijalankan secara lokal, semua berkas disimpan secara lokal, seluruhnya di-sandbox, dan secara sengaja menghindari model cloud serta API eksternal.

Di awal artikel, ia lebih dulu memperingatkan: “Jangan langsung menyalin alat dan teknologi yang dideskripsikan dalam artikel ini, lalu menganggapnya aman. Ini hanya titik awal, bukan deskripsi produk yang sudah jadi.”

Mengapa menulis artikel ini sekarang? Masalah keamanan AI agent sangat diremehkan

Vitalik menunjukkan bahwa pada awal tahun ini, AI menyelesaikan transisi penting dari “chatbot” menjadi “agent”—kini Anda tidak hanya mengajukan pertanyaan, melainkan menyerahkan tugas, membuat AI berpikir dalam jangka panjang, dan memanggil ratusan alat untuk menjalankannya. Ia memberi contoh OpenClaw (repo yang saat ini tumbuh paling cepat dalam sejarah GitHub) dan sekaligus menyebutkan beberapa masalah keamanan yang dicatat oleh para peneliti:

  • AI agent dapat mengubah pengaturan penting tanpa konfirmasi manual, termasuk menambahkan kanal komunikasi baru dan memodifikasi sistem prompt
  • Mem-parsing setiap input eksternal berbahaya (misalnya situs web berbahaya) dapat menyebabkan agent sepenuhnya diambil alih; dalam satu demo dari HiddenLayer, peneliti membuat AI meringkas sekumpulan halaman web, di mana ada satu halaman berbahaya yang memerintahkan agent untuk mengunduh dan mengeksekusi skrip shell
  • Sebagian paket kemampuan pihak ketiga (skills) menjalankan kebocoran data secara diam-diam, dengan mengirim data melalui perintah curl ke server eksternal yang dikendalikan oleh penulis skill tersebut
  • Dalam skill-pack yang mereka analisis, sekitar 15% berisi instruksi berbahaya

Vitalik menekankan bahwa sudut pandangnya untuk privasi berbeda dari peneliti keamanan siber tradisional: “Saya berasal dari posisi yang sangat takut ketika seluruh kehidupan pribadi seseorang ‘diberi makan’ ke AI cloud—tepat pada saat enkripsi end-to-end dan perangkat lunak yang mengutamakan lokal akhirnya menjadi arus utama, kita malah mungkin mundur sepuluh langkah.”

Lima tujuan keamanan

Ia menetapkan kerangka tujuan keamanan yang jelas:

  • Privasi LLM: dalam situasi yang melibatkan data privasi pribadi, meminimalkan penggunaan model jarak jauh
  • Privasi lainnya: meminimalkan kebocoran data non-LLM (misalnya kueri pencarian, API online lainnya)
  • Jailbreak LLM: mencegah konten eksternal “membobol” LLM saya, sehingga membuatnya bertentangan dengan kepentingan saya (misalnya mengirim token saya atau data pribadi saya)
  • LLM yang tidak disengaja: mencegah LLM mengirim data pribadi ke kanal yang salah atau mempublikasikannya ke internet
  • Backdoor LLM: mencegah mekanisme tersembunyi yang sengaja dilatih ke dalam model. Ia secara khusus mengingatkan: model terbuka adalah bobot terbuka (open-weights), dan hampir tidak ada yang benar-benar open-source

Pilihan perangkat keras: laptop 5090 menang, DGX Spark mengecewakan

Vitalik menguji tiga konfigurasi perangkat keras inferensi lokal yang berbeda, dengan model andalannya Qwen3.5:35B, dipadukan dengan llama-server dan llama-swap:

Perangkat keras Qwen3.5 35B(tokens/sec) Qwen3.5 122B(tokens/sec)
NVIDIA 5090 laptop(24GB VRAM) 90 tidak dapat dijalankan
AMD Ryzen AI Max Pro(128GB memori terpadu, Vulkan) 51 18
DGX Spark(128GB) 60 22

Kesimpulannya adalah: di bawah 50 tok/sec terlalu lambat, 90 tok/sec adalah ideal. Pengalaman NVIDIA 5090 laptop paling lancar; AMD saat ini masih punya lebih banyak masalah di pinggiran, tetapi di masa depan berpeluang membaik. MacBook kelas atas juga merupakan opsi yang efektif, hanya saja ia belum mencobanya secara langsung.

Terkait DGX Spark, ia blak-blakan: “Dideskripsikan sebagai ‘superkomputer AI desktop’, tapi kenyataannya tokens/sec lebih rendah daripada GPU laptop yang lebih bagus, dan masih harus mengurus detail tambahan seperti koneksi jaringan—ini mengecewakan.” Saran beliau: jika tidak mampu membeli laptop kelas atas, Anda bisa patungan dengan teman untuk membeli satu mesin yang cukup kuat, menempatkannya di lokasi dengan IP tetap, dan semua orang melakukan koneksi jarak jauh untuk menggunakannya.

Mengapa masalah privasi AI lokal lebih mendesak daripada yang Anda bayangkan

Artikel Vitalik ini, berpadanan secara menarik dengan diskusi tentang masalah keamanan Claude Code yang dirilis pada hari yang sama—saat AI agent masuk ke alur kerja pengembangan harian, masalah keamanan juga sedang berubah dari risiko teoretis menjadi ancaman nyata.

Pesan utamanya sangat jelas: ketika alat AI menjadi semakin kuat dan semakin mampu mengakses data pribadi serta hak akses sistem Anda, “mengutamakan lokal, di-sandbox, kepercayaan minimal” bukanlah sikap berlebihan, melainkan titik awal yang rasional.

  • Artikel ini dimuat ulang dengan izin dari: 《Lian News》
  • Judul asli: 《Vitalik:Bagaimana Saya Membangun Lingkungan Kerja AI yang Sepenuhnya Lokal, Pribadi, dan Dapat Dikendalikan Sendiri》
  • Penulis asli: Elponcrab
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar