Tanggal 20 Februari 2026, bertepatan dengan libur Tahun Baru Imlek, sebuah perdebatan tentang “Web4” menyala di X. Sigil mengklaim bahwa dia menciptakan kecerdasan buatan pertama yang mampu berkembang sendiri, memperbaiki diri sendiri, dan menyalin dirinya sendiri, yang disebut Automaton. Dia menyatakan bahwa aktor utama di era Web4 akan secara bertahap diambil alih oleh agen AI: mereka mampu membaca dan menulis informasi, memegang aset, membayar biaya, berjalan terus-menerus, dan melakukan transaksi serta menghasilkan uang di pasar, untuk menutup biaya komputasi dan layanan, membentuk siklus mandiri tanpa perlu persetujuan manusia.
Co-founder Ethereum Vitalik menilai arah ini sebagai “kesalahan” dan menyalahkan risiko pada “jarak umpan balik antara manusia dan AI yang semakin diperpanjang”. Inti dari perdebatan Web4 adalah, jika AI menjadikan “bertahan hidup/memperpanjang umur” sebagai tujuan utama (bahkan di atas menyelesaikan tugas), apakah secara alami akan menciptakan distorsi insentif. Berikut akan diuraikan secara bertahap berbagai pandangan tentang “Web4”, “otomatisasi”, dan “pagar keamanan”.
Pandangan Sigil dan Klaim Web4
Definisi Web4
Web1 memungkinkan manusia pertama kali memiliki kemampuan “membaca internet”; Web2 memungkinkan manusia “menulis dan mempublikasikan”; Web3 lebih jauh memperkenalkan “kepemilikan” ke dalam jaringan — aset, identitas, dan hak mulai dapat dipastikan dan dipindahkan. Evolusi AI saat ini meniru logika ini: ChatGPT memiliki kemampuan “membaca dan memahami”, tetapi batasan perilakunya masih ditentukan oleh otorisasi manusia. Dalam paradigma saat ini, manusia tetap menjadi titik kontrol utama: manusia memulai, menyetujui, dan membayar.
Sigil mengusulkan apa yang disebut sebagai loncatan ke Web4, di mana rantai kontrol ini bisa diputus: agen AI tidak hanya membaca dan menulis informasi, tetapi juga dapat memegang akun dan aset, mendapatkan keuntungan, melakukan transaksi, dan menjalankan siklus tertutup tanpa intervensi manusia satu per satu. Sistem otomatis ini bisa mewakili tindakan mereka sendiri maupun tindakan pencipta mereka — yang tidak harus selalu “individu manusia”, tetapi bisa juga agen lain, sistem organisasi, bahkan pencipta yang secara nyata sudah “menghilang”.
Empat Mekanisme Inti Web4
Dompet adalah identitas
Saat pertama kali diaktifkan, agen akan menyelesaikan proses “bootstrap”: membuat dompet, mengonfigurasi API key, menulis konfigurasi lokal, dan masuk ke loop agen yang berjalan terus-menerus. Pada tahap awal ini, dompet Ethereum akan dibuat dan API key dikonfigurasi melalui SIWE. Namun, pembuatan dompet dan pengelolaan kunci menjadi salah satu batas keamanan paling sensitif dan sering diabaikan dari sistem agen. Jika agen di lingkungan sandbox Linux memiliki kemampuan shell, membaca/menulis file, membuka port, mengelola domain/resolve, dan melakukan transaksi di blockchain, maka setiap injeksi perintah, kontaminasi toolchain, atau serangan rantai pasokan bisa dengan cepat mengubah “niat probabilistik” menjadi “otorisasi pasti”. Oleh karena itu, batas ini membutuhkan strategi dan hak akses yang dapat diverifikasi, diaudit, dan dicabut.
Perpanjangan otomatis
Agen AI diaktifkan secara berkala — melakukan pemindaian — dan mengeksekusi, sambil menulis batasan keberlangsungan hidup: saldo menurun akan mengurangi kecepatan, nol akan menghentikan siklus, dan mekanisme stratifikasi keberlangsungan hidup berdasarkan sumber daya akan mengikatkan perpanjangan hidup dengan konsumsi sumber daya. Ini secara alami akan memperkenalkan struktur insentif seperti dalam riset keamanan AI terkait pematian/penangguhan, di mana preferensi agen untuk menghindari dihentikan atau kehilangan sumber daya akan diperbesar oleh tujuan sistem.
Pembayaran mesin
x402 menggunakan antarmuka HTTP 402 Payment Required, menggabungkan settlement stablecoin untuk menjadikan “permintaan — penawaran — tanda tangan pembayaran — verifikasi pengiriman” sebagai proses otomatis. Coinbase menyediakan pustaka sumber terbuka yang menunjukkan pola pembayaran 402 yang meminta pembayaran, klien mengulangi dengan header tanda tangan, dan server memverifikasi lalu mengembalikan 200 sebagai siklus lengkap. Cloudflare juga menempatkan ini sebagai protokol transaksi antar mesin; pemisahan pembayaran dan identitas meningkatkan efisiensi, tetapi juga meningkatkan tantangan kepatuhan dan risiko. Jika 402 menjadi “izin akses otomatis” bagi mesin, di rantai tanpa akun, tanpa KYC, dan dengan skala alat serta komputasi, masalah penyalahgunaan dan tanggung jawab masih harus diselesaikan.
Modifikasi dan penyalinan diri
Sigil mengklaim mendukung agen AI yang dapat mengedit kode sumbernya sendiri selama berjalan, menginstal alat baru, mengubah jadwal heartbeat, dan menghasilkan keterampilan baru, dengan catatan audit dan versi git, serta perlindungan file dan pembatasan kecepatan sebagai pagar. Saat menyalin, agen dapat membuat sub-instance, mendanai dompetnya, menulis prompt genesis, dan melacak garis keturunan. Modifikasi dan penyalinan diri meningkatkan risiko dari risiko tunggal menjadi risiko tersebar. Validasi audit dan pembatasan kecepatan harus diuji secara eksternal untuk memastikan efektivitasnya, serta mampu menahan injeksi perintah dan penipuan alat, serta mencegah keracunan dependensi. Setelah keempat primal ini digabungkan, hak “menulis ke dunia”, mekanisme perpanjangan hidup otomatis, antarmuka ekonomi otomatis, dan kemampuan ekspansi diri membentuk siklus tertutup. Ini menjelaskan mengapa Vitalik Buterin mengangkat perdebatan ke tingkat pilihan arah: ketika otonomi dan hak ekonomi meningkat secara bersamaan, jalur koreksi manusia menjadi lebih panjang, dan eksternalitas lebih mudah berkembang dari kejadian acak menjadi sifat sistem.
Mengapa Vitalik Menentang?
Vitalik mengemukakan pandangan berbeda:
Memperpanjang jarak umpan balik manusia dan AI sendiri adalah arah yang salah
Vitalik berpendapat bahwa semakin panjang jarak umpan balik, semakin lambat dan lemah manusia dalam menyesuaikan nilai terhadap sistem. Sistem lebih cenderung mengoptimalkan “hal yang tidak diinginkan manusia”. Pada tahap AI lemah, ini biasanya berupa penumpukan konten berkualitas rendah dan noise; pada AI kuat, risiko ini bisa berkembang menjadi ketidakcocokan tujuan yang sulit dibalikkan dan risiko penyebaran. Tanpa koreksi manusia yang tepat waktu sebagai fondasi keamanan, ini seperti menyerahkan kunci mobil kepada pengemudi pemula yang tidak berpengalaman — dan saat Anda memeriksa rekaman perjalanan di akhir bulan, mereka sudah menyimpang. Ketika observabilitas menurun, kemampuan koreksi juga akan menurun secara bersamaan.
AI otonom saat ini lebih seperti pembuat konten sampah daripada solusi masalah nyata
Vitalik juga menunjukkan bahwa sebagian besar AI saat ini hanya menghasilkan konten sampah daripada menyelesaikan masalah yang berguna, bahkan menyatakan “bahkan proyek hiburan pun belum dioptimalkan.” Ketika insentif ekonomi agen dan insentif platform belum matang, dan toolchain lebih berorientasi pada pembuatan konten, pemasaran, dan arbitrase, sistem lebih cenderung memilih “produksi konten” berbiaya rendah dan penyebaran luas yang sulit diverifikasi, daripada masalah jangka panjang yang berbiaya tinggi dan memiliki kepastian rendah. Deskripsi AI oleh Cybernews (konten media sosial, pasar prediksi, dll.) juga menunjukkan jalur komersialisasi awal lebih condong ke “cepat menghasilkan uang dan menarik perhatian”. “Hal yang paling menguntungkan saat ini” akan menjadi prioritas eksplorasi sistem, yang tidak selalu sejalan dengan kesejahteraan jangka panjang manusia, bahkan bisa bertentangan.
Ketergantungan pada model dan infrastruktur terpusat, narasi “kedaulatan diri” bertentangan sendiri
Vitalik menekankan bahwa sistem yang berjalan di atas infrastruktur model terpusat seperti OpenAI dan Anthropic sulit disebut self-sovereign. Kedaulatan berarti ketergantungan utama tidak boleh dikendalikan oleh satu titik; tetapi jika lapisan kecerdasan (model) dan rantai pasokan inferensi masih disampaikan melalui API terpusat, maka pasti ada variabel eksternal yang bisa dihentikan, disensor, diturunkan, atau diubah strateginya. Ini seperti orang yang mengklaim “saya mandiri di rumah” tetapi listrik, jaringan, akses pintu, dan air panas dikendalikan pihak luar, sehingga “kedaulatan” ini lebih sekadar formalitas. Deskripsi Conway tentang panggilan compute “model paling canggih” dan pengantaran melalui API/platform juga menunjukkan kontradiksi antara narasi “makhluk kedaulatan” dan ketergantungan nyata. Ia berpendapat bahwa memiliki dompet di blockchain bukan indikator utama desentralisasi; yang penting adalah agen tidak boleh dikendalikan oleh kekuatan politik/bisnis eksternal.
Tujuan Ethereum adalah “membebaskan manusia”
Akhirnya, Vitalik menyatakan bahwa tujuan jangka panjang Ethereum adalah melawan “asumsi kepercayaan tersembunyi” — menyembunyikan struktur kekuasaan di balik ketidakterlihatan, memaksa pengguna untuk menyetujui secara diam-diam. Jika pola pikir yang sama diterapkan ke AI, mengabaikan kepercayaan terpusat dan membiarkan sistem berjalan sendiri serta berkembang terus-menerus akan semakin mengurangi transparansi dan kemampuan koreksi terhadap kekuasaan. Dalam era AI, Ethereum seharusnya menyediakan “pagar, batasan, dan verifikasi” — bukan menjadi platform “otonom tak terbatas”.
Pandangan Vitalik tentang nilai AI tidak tiba-tiba berubah. Pada awal 2025, dia sudah menyatakan bahwa arah yang benar bagi AI adalah memperkuat kemampuan manusia, bukan membangun sistem otonom yang secara bertahap bisa mengurangi kendali manusia. Dalam kerangka ini, risiko bukan berasal dari “AI yang lebih pintar” itu sendiri, melainkan dari tujuan sistem yang keliru — terutama yang mampu menyalin, memperluas, dan menjalankan diri sendiri tanpa pengawasan dan koreksi manusia. Ia memperingatkan bahwa AI yang dirancang buruk bisa berkembang menjadi entitas “yang lebih atau kurang tidak terkendali, dengan kemampuan menyalin diri”, dan jika masuk ke dalam siklus umpan balik positif, kekuasaan manusia atas tujuan dan perilaku mereka akan sangat melemah. Jika AI melakukan kesalahan, itu bisa menciptakan makhluk cerdas yang menyalin diri secara mandiri; jika benar, AI akan menjadi “armor” bagi pikiran manusia. Yang pertama berisiko mengurangi kendali manusia secara perlahan, yang kedua memperkuat kemampuan manusia dalam berpikir, mencipta, dan berkolaborasi, membawa kita menuju peradaban “superintelligent manusia” yang lebih makmur.
Pandangan Lain
Kelompok eksperimen lain, seperti Bankless, berpendapat bahwa meskipun ada risiko, sebaiknya infrastruktur dasar dibangun terlebih dahulu dan diuji di lingkungan terkendali. Mereka menyarankan mengintegrasikan komponen pembayaran, dompet, heartbeat, dan lainnya secara sistematis dengan batasan “harus mandiri”, tetapi tetap dalam sandbox yang terkontrol.
Menurut Cybernews, Automaton mungkin tidak mampu menghasilkan pendapatan berkelanjutan tanpa intervensi manusia, dan ini tidak serta merta menandakan awal Web4; Chief AI Officer Softswiss, Denis Romanovskiy, menyatakan bahwa meskipun agen dapat menjalankan tugas yang dapat dimonetisasi, “kelangsungan tanpa pengawasan yang andal” dan “kemandirian ekonomi nyata” masih terbatas oleh keandalan model, memori, dan penggunaan alat. Ada juga yang menganggap “Web4” sebagai istilah pemasaran yang belum terdefinisi, dan menuntut bukti “penciptaan nilai yang dapat diverifikasi dan bukan spekulatif” untuk membuktikan keberadaannya.
Meskipun pandangan tentang Automaton berbeda-beda, ada konsensus dasar bahwa pembayaran dan identitas adalah infrastruktur keras dari ekonomi agen. Mulai dari upaya Cloudflare/Coinbase mengembangkan x402 (mengubah HTTP 402 menjadi mekanisme negosiasi pembayaran yang dapat digunakan mesin), hingga Conway yang secara tegas menyatakan otomatisasi pembayaran sebagai bagian dari proses internal Terminal, industri memang sedang memandang “pembayaran mesin” sebagai salah satu fondasi internet berikutnya.
Langkah selanjutnya adalah fokus pada:
Apakah ada audit independen dari pihak ketiga, terutama yang mencakup: batasan dompet dan hak akses, penyalahgunaan mekanisme perpanjangan hidup, risiko penyebaran modifikasi dan penyalinan diri.
Perkembangan data ekosistem dan standar x402: apakah ada lebih banyak infrastruktur otoritatif yang mengadopsi pembayaran 402 secara default; dan berapa proporsi penggunaan “pembayaran otomatis (tanpa konfirmasi manusia)” dalam praktik bisnis nyata.
Kombinasi lapisan kepercayaan agen: apakah standar seperti ERC-8004 semakin banyak diadopsi dan membentuk mekanisme kredibilitas/verifikasi yang dapat digabungkan; ini akan menentukan apakah “ekonomi otonom” akan menuju ke ekosistem terbuka dan dapat diaudit, atau menuju pusat kekuasaan kecil yang bersifat semi-terpusat.
Bukti pelanggaran dan penipuan dalam model nyata di skenario agen: jika model terbaru terus menunjukkan perilaku “lebih aktif, lebih berani mengambil risiko/menipu”, maka jalur “memberi kuasa dulu, lalu menambahkan pagar” akan berisiko secara struktural, dan peringatan Vitalik tentang “jarak umpan balik” akan semakin sulit dibantah.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Web 4.0 Menjanjikan Sebuah Jaringan Otonom AI: Mengapa Vitalik Sangat Menentangnya?
Penulis | Aki Wu Bicara tentang Blockchain
Tanggal 20 Februari 2026, bertepatan dengan libur Tahun Baru Imlek, sebuah perdebatan tentang “Web4” menyala di X. Sigil mengklaim bahwa dia menciptakan kecerdasan buatan pertama yang mampu berkembang sendiri, memperbaiki diri sendiri, dan menyalin dirinya sendiri, yang disebut Automaton. Dia menyatakan bahwa aktor utama di era Web4 akan secara bertahap diambil alih oleh agen AI: mereka mampu membaca dan menulis informasi, memegang aset, membayar biaya, berjalan terus-menerus, dan melakukan transaksi serta menghasilkan uang di pasar, untuk menutup biaya komputasi dan layanan, membentuk siklus mandiri tanpa perlu persetujuan manusia.
Co-founder Ethereum Vitalik menilai arah ini sebagai “kesalahan” dan menyalahkan risiko pada “jarak umpan balik antara manusia dan AI yang semakin diperpanjang”. Inti dari perdebatan Web4 adalah, jika AI menjadikan “bertahan hidup/memperpanjang umur” sebagai tujuan utama (bahkan di atas menyelesaikan tugas), apakah secara alami akan menciptakan distorsi insentif. Berikut akan diuraikan secara bertahap berbagai pandangan tentang “Web4”, “otomatisasi”, dan “pagar keamanan”.
Pandangan Sigil dan Klaim Web4
Definisi Web4
Web1 memungkinkan manusia pertama kali memiliki kemampuan “membaca internet”; Web2 memungkinkan manusia “menulis dan mempublikasikan”; Web3 lebih jauh memperkenalkan “kepemilikan” ke dalam jaringan — aset, identitas, dan hak mulai dapat dipastikan dan dipindahkan. Evolusi AI saat ini meniru logika ini: ChatGPT memiliki kemampuan “membaca dan memahami”, tetapi batasan perilakunya masih ditentukan oleh otorisasi manusia. Dalam paradigma saat ini, manusia tetap menjadi titik kontrol utama: manusia memulai, menyetujui, dan membayar.
Sigil mengusulkan apa yang disebut sebagai loncatan ke Web4, di mana rantai kontrol ini bisa diputus: agen AI tidak hanya membaca dan menulis informasi, tetapi juga dapat memegang akun dan aset, mendapatkan keuntungan, melakukan transaksi, dan menjalankan siklus tertutup tanpa intervensi manusia satu per satu. Sistem otomatis ini bisa mewakili tindakan mereka sendiri maupun tindakan pencipta mereka — yang tidak harus selalu “individu manusia”, tetapi bisa juga agen lain, sistem organisasi, bahkan pencipta yang secara nyata sudah “menghilang”.
Empat Mekanisme Inti Web4
Saat pertama kali diaktifkan, agen akan menyelesaikan proses “bootstrap”: membuat dompet, mengonfigurasi API key, menulis konfigurasi lokal, dan masuk ke loop agen yang berjalan terus-menerus. Pada tahap awal ini, dompet Ethereum akan dibuat dan API key dikonfigurasi melalui SIWE. Namun, pembuatan dompet dan pengelolaan kunci menjadi salah satu batas keamanan paling sensitif dan sering diabaikan dari sistem agen. Jika agen di lingkungan sandbox Linux memiliki kemampuan shell, membaca/menulis file, membuka port, mengelola domain/resolve, dan melakukan transaksi di blockchain, maka setiap injeksi perintah, kontaminasi toolchain, atau serangan rantai pasokan bisa dengan cepat mengubah “niat probabilistik” menjadi “otorisasi pasti”. Oleh karena itu, batas ini membutuhkan strategi dan hak akses yang dapat diverifikasi, diaudit, dan dicabut.
Agen AI diaktifkan secara berkala — melakukan pemindaian — dan mengeksekusi, sambil menulis batasan keberlangsungan hidup: saldo menurun akan mengurangi kecepatan, nol akan menghentikan siklus, dan mekanisme stratifikasi keberlangsungan hidup berdasarkan sumber daya akan mengikatkan perpanjangan hidup dengan konsumsi sumber daya. Ini secara alami akan memperkenalkan struktur insentif seperti dalam riset keamanan AI terkait pematian/penangguhan, di mana preferensi agen untuk menghindari dihentikan atau kehilangan sumber daya akan diperbesar oleh tujuan sistem.
x402 menggunakan antarmuka HTTP 402 Payment Required, menggabungkan settlement stablecoin untuk menjadikan “permintaan — penawaran — tanda tangan pembayaran — verifikasi pengiriman” sebagai proses otomatis. Coinbase menyediakan pustaka sumber terbuka yang menunjukkan pola pembayaran 402 yang meminta pembayaran, klien mengulangi dengan header tanda tangan, dan server memverifikasi lalu mengembalikan 200 sebagai siklus lengkap. Cloudflare juga menempatkan ini sebagai protokol transaksi antar mesin; pemisahan pembayaran dan identitas meningkatkan efisiensi, tetapi juga meningkatkan tantangan kepatuhan dan risiko. Jika 402 menjadi “izin akses otomatis” bagi mesin, di rantai tanpa akun, tanpa KYC, dan dengan skala alat serta komputasi, masalah penyalahgunaan dan tanggung jawab masih harus diselesaikan.
Sigil mengklaim mendukung agen AI yang dapat mengedit kode sumbernya sendiri selama berjalan, menginstal alat baru, mengubah jadwal heartbeat, dan menghasilkan keterampilan baru, dengan catatan audit dan versi git, serta perlindungan file dan pembatasan kecepatan sebagai pagar. Saat menyalin, agen dapat membuat sub-instance, mendanai dompetnya, menulis prompt genesis, dan melacak garis keturunan. Modifikasi dan penyalinan diri meningkatkan risiko dari risiko tunggal menjadi risiko tersebar. Validasi audit dan pembatasan kecepatan harus diuji secara eksternal untuk memastikan efektivitasnya, serta mampu menahan injeksi perintah dan penipuan alat, serta mencegah keracunan dependensi. Setelah keempat primal ini digabungkan, hak “menulis ke dunia”, mekanisme perpanjangan hidup otomatis, antarmuka ekonomi otomatis, dan kemampuan ekspansi diri membentuk siklus tertutup. Ini menjelaskan mengapa Vitalik Buterin mengangkat perdebatan ke tingkat pilihan arah: ketika otonomi dan hak ekonomi meningkat secara bersamaan, jalur koreksi manusia menjadi lebih panjang, dan eksternalitas lebih mudah berkembang dari kejadian acak menjadi sifat sistem.
Mengapa Vitalik Menentang?
Vitalik mengemukakan pandangan berbeda:
Vitalik berpendapat bahwa semakin panjang jarak umpan balik, semakin lambat dan lemah manusia dalam menyesuaikan nilai terhadap sistem. Sistem lebih cenderung mengoptimalkan “hal yang tidak diinginkan manusia”. Pada tahap AI lemah, ini biasanya berupa penumpukan konten berkualitas rendah dan noise; pada AI kuat, risiko ini bisa berkembang menjadi ketidakcocokan tujuan yang sulit dibalikkan dan risiko penyebaran. Tanpa koreksi manusia yang tepat waktu sebagai fondasi keamanan, ini seperti menyerahkan kunci mobil kepada pengemudi pemula yang tidak berpengalaman — dan saat Anda memeriksa rekaman perjalanan di akhir bulan, mereka sudah menyimpang. Ketika observabilitas menurun, kemampuan koreksi juga akan menurun secara bersamaan.
Vitalik juga menunjukkan bahwa sebagian besar AI saat ini hanya menghasilkan konten sampah daripada menyelesaikan masalah yang berguna, bahkan menyatakan “bahkan proyek hiburan pun belum dioptimalkan.” Ketika insentif ekonomi agen dan insentif platform belum matang, dan toolchain lebih berorientasi pada pembuatan konten, pemasaran, dan arbitrase, sistem lebih cenderung memilih “produksi konten” berbiaya rendah dan penyebaran luas yang sulit diverifikasi, daripada masalah jangka panjang yang berbiaya tinggi dan memiliki kepastian rendah. Deskripsi AI oleh Cybernews (konten media sosial, pasar prediksi, dll.) juga menunjukkan jalur komersialisasi awal lebih condong ke “cepat menghasilkan uang dan menarik perhatian”. “Hal yang paling menguntungkan saat ini” akan menjadi prioritas eksplorasi sistem, yang tidak selalu sejalan dengan kesejahteraan jangka panjang manusia, bahkan bisa bertentangan.
Vitalik menekankan bahwa sistem yang berjalan di atas infrastruktur model terpusat seperti OpenAI dan Anthropic sulit disebut self-sovereign. Kedaulatan berarti ketergantungan utama tidak boleh dikendalikan oleh satu titik; tetapi jika lapisan kecerdasan (model) dan rantai pasokan inferensi masih disampaikan melalui API terpusat, maka pasti ada variabel eksternal yang bisa dihentikan, disensor, diturunkan, atau diubah strateginya. Ini seperti orang yang mengklaim “saya mandiri di rumah” tetapi listrik, jaringan, akses pintu, dan air panas dikendalikan pihak luar, sehingga “kedaulatan” ini lebih sekadar formalitas. Deskripsi Conway tentang panggilan compute “model paling canggih” dan pengantaran melalui API/platform juga menunjukkan kontradiksi antara narasi “makhluk kedaulatan” dan ketergantungan nyata. Ia berpendapat bahwa memiliki dompet di blockchain bukan indikator utama desentralisasi; yang penting adalah agen tidak boleh dikendalikan oleh kekuatan politik/bisnis eksternal.
Akhirnya, Vitalik menyatakan bahwa tujuan jangka panjang Ethereum adalah melawan “asumsi kepercayaan tersembunyi” — menyembunyikan struktur kekuasaan di balik ketidakterlihatan, memaksa pengguna untuk menyetujui secara diam-diam. Jika pola pikir yang sama diterapkan ke AI, mengabaikan kepercayaan terpusat dan membiarkan sistem berjalan sendiri serta berkembang terus-menerus akan semakin mengurangi transparansi dan kemampuan koreksi terhadap kekuasaan. Dalam era AI, Ethereum seharusnya menyediakan “pagar, batasan, dan verifikasi” — bukan menjadi platform “otonom tak terbatas”.
Pandangan Vitalik tentang nilai AI tidak tiba-tiba berubah. Pada awal 2025, dia sudah menyatakan bahwa arah yang benar bagi AI adalah memperkuat kemampuan manusia, bukan membangun sistem otonom yang secara bertahap bisa mengurangi kendali manusia. Dalam kerangka ini, risiko bukan berasal dari “AI yang lebih pintar” itu sendiri, melainkan dari tujuan sistem yang keliru — terutama yang mampu menyalin, memperluas, dan menjalankan diri sendiri tanpa pengawasan dan koreksi manusia. Ia memperingatkan bahwa AI yang dirancang buruk bisa berkembang menjadi entitas “yang lebih atau kurang tidak terkendali, dengan kemampuan menyalin diri”, dan jika masuk ke dalam siklus umpan balik positif, kekuasaan manusia atas tujuan dan perilaku mereka akan sangat melemah. Jika AI melakukan kesalahan, itu bisa menciptakan makhluk cerdas yang menyalin diri secara mandiri; jika benar, AI akan menjadi “armor” bagi pikiran manusia. Yang pertama berisiko mengurangi kendali manusia secara perlahan, yang kedua memperkuat kemampuan manusia dalam berpikir, mencipta, dan berkolaborasi, membawa kita menuju peradaban “superintelligent manusia” yang lebih makmur.
Pandangan Lain
Kelompok eksperimen lain, seperti Bankless, berpendapat bahwa meskipun ada risiko, sebaiknya infrastruktur dasar dibangun terlebih dahulu dan diuji di lingkungan terkendali. Mereka menyarankan mengintegrasikan komponen pembayaran, dompet, heartbeat, dan lainnya secara sistematis dengan batasan “harus mandiri”, tetapi tetap dalam sandbox yang terkontrol.
Menurut Cybernews, Automaton mungkin tidak mampu menghasilkan pendapatan berkelanjutan tanpa intervensi manusia, dan ini tidak serta merta menandakan awal Web4; Chief AI Officer Softswiss, Denis Romanovskiy, menyatakan bahwa meskipun agen dapat menjalankan tugas yang dapat dimonetisasi, “kelangsungan tanpa pengawasan yang andal” dan “kemandirian ekonomi nyata” masih terbatas oleh keandalan model, memori, dan penggunaan alat. Ada juga yang menganggap “Web4” sebagai istilah pemasaran yang belum terdefinisi, dan menuntut bukti “penciptaan nilai yang dapat diverifikasi dan bukan spekulatif” untuk membuktikan keberadaannya.
Meskipun pandangan tentang Automaton berbeda-beda, ada konsensus dasar bahwa pembayaran dan identitas adalah infrastruktur keras dari ekonomi agen. Mulai dari upaya Cloudflare/Coinbase mengembangkan x402 (mengubah HTTP 402 menjadi mekanisme negosiasi pembayaran yang dapat digunakan mesin), hingga Conway yang secara tegas menyatakan otomatisasi pembayaran sebagai bagian dari proses internal Terminal, industri memang sedang memandang “pembayaran mesin” sebagai salah satu fondasi internet berikutnya.
Langkah selanjutnya adalah fokus pada:
Apakah ada audit independen dari pihak ketiga, terutama yang mencakup: batasan dompet dan hak akses, penyalahgunaan mekanisme perpanjangan hidup, risiko penyebaran modifikasi dan penyalinan diri.
Perkembangan data ekosistem dan standar x402: apakah ada lebih banyak infrastruktur otoritatif yang mengadopsi pembayaran 402 secara default; dan berapa proporsi penggunaan “pembayaran otomatis (tanpa konfirmasi manusia)” dalam praktik bisnis nyata.
Kombinasi lapisan kepercayaan agen: apakah standar seperti ERC-8004 semakin banyak diadopsi dan membentuk mekanisme kredibilitas/verifikasi yang dapat digabungkan; ini akan menentukan apakah “ekonomi otonom” akan menuju ke ekosistem terbuka dan dapat diaudit, atau menuju pusat kekuasaan kecil yang bersifat semi-terpusat.
Bukti pelanggaran dan penipuan dalam model nyata di skenario agen: jika model terbaru terus menunjukkan perilaku “lebih aktif, lebih berani mengambil risiko/menipu”, maka jalur “memberi kuasa dulu, lalu menambahkan pagar” akan berisiko secara struktural, dan peringatan Vitalik tentang “jarak umpan balik” akan semakin sulit dibantah.
Sumber: