Saya sering berdiskusi dengan orang dalam komunitas tentang satu topik: jebakan paling umum dalam proyek penyimpanan terdesentralisasi, sebenarnya bukan soal seberapa merepotkan proses unggah di awal. Pembunuh sebenarnya adalah ini—setelah sistem berjalan satu atau dua tahun, node datang dan pergi, hard disk rusak, fluktuasi jaringan, pemindahan data center... "kerusakan" yang tampaknya sehari-hari ini secara perlahan mengikis margin keuntungan, dan akhirnya proyek harus menaikkan harga atau mengurangi jaminan keamanan. Siklus mati ini hampir menjadi mantra industri.
Baru-baru ini saya melihat mekanisme pemulihan Walrus, dan saya menemukan bahwa mereka mengambil pendekatan yang berbeda. Desain Red Stuff-nya memiliki fitur kunci: bandwidth pemulihan data yang hilang, secara ketat berbanding lurus dengan jumlah data yang hilang—dengan kata lain, sebanyak apa pun data yang hilang, akan diperbaiki sebanyak itu, tanpa harus memindahkan seluruh data lagi hanya untuk memperbaiki beberapa fragmen. Kedengarannya sederhana, tapi apa maknanya di balik itu?
Ini berarti biaya pemulihan berkurang secara invers dengan bertambahnya jumlah node yang berpartisipasi. Indikator teknisnya sangat jelas: bandwidth yang dibutuhkan setiap node untuk pemulihan dapat ditekan ke tingkat O(|blob|/n). Semakin besar jaringan dan semakin banyak node, biaya per unit justru semakin tipis. Ini sangat penting untuk jaringan terbuka—karena node secara alami masuk dan keluar, jika biaya pemulihan tidak menurun seiring skala, suatu saat akan muncul situasi absurd seperti "tagihan pemulihan lebih mahal dari biaya penyimpanan."
Logika ini, jika diterapkan ke lapisan aplikasi nyata, apa manfaatnya? Pertama, stabilitas harga. Pemulihan tidak akan menjadi lubang hitam operasional, sehingga proyek tidak perlu sering menaikkan harga atau memotong redundansi untuk "memperpanjang umur." Kedua, peningkatan ketersediaan. Proses pemulihan menjadi lebih ringan dan lebih rutin, sistem dapat menutup celah data lebih cepat, dan kemungkinan pengguna mengalami "tidak bisa membaca" berkurang secara signifikan. Lebih jauh lagi, ini adalah infrastruktur yang benar-benar cocok untuk aplikasi jangka panjang—baik menyimpan data pelatihan AI, file sumber daya game blockchain, halaman frontend, maupun arsip konten tingkat arsip—yang dibutuhkan bukan hanya keberhasilan sekali, tetapi kestabilan dan keandalan selama lima atau sepuluh tahun.
Jadi, saya melihat Walrus tidak hanya dari segi "seberapa lama bisa disimpan," tetapi juga dari "kalau rusak, bisa diperbaiki dengan biaya rendah dan semakin stabil." Desain Red Stuff yang membuat biaya pemulihan menurun seiring skala jaringan secara esensial adalah fondasi untuk keberlangsungan jangka panjang proyek ini. Pola desain seperti ini, inilah yang menjadi logika utama agar penyimpanan terdesentralisasi benar-benar bisa bertahan hidup.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Kalau begitu, lagi-lagi solusi tukang perbaikan, benar-benar bisa digunakan lima tahun, sepuluh tahun nanti saja kita bicarakan
---
O(|blob|/n)Model matematika ini terlihat bagus, tapi berapa lama node benar-benar bisa bertahan saat dijalankan?
---
Sial, akhirnya ada yang menjelaskan secara mendalam tentang biaya perbaikan, proyek lain semua menghindar dari topik ini
---
Singkatnya, ini tentang menghemat uang, terdengar bagus tapi saya tetap ingin melihat laporan keuangan enam bulan ke depan
---
Logika ini setidaknya jauh lebih baik daripada kondisi mati seperti Filecoin sekarang
---
Semakin banyak node, semakin rendah biaya? Tunggu dulu, bagaimana mekanisme insentifnya, apakah malah membuat orang enggan menjalankan node?
---
Saya cuma ingin tahu kapan Walrus bisa benar-benar terealisasi, jangan lagi cuma PPT storage
Lihat AsliBalas0
LiquidityWizard
· 01-20 02:35
卧槽,终于有人把这个点说透了。其他项目都在扯"去中心化"的皮,Walrus这套设计才是真正戳中要害
修复成本随节点数递减?这不就是越大越便宜吗,妙啊
之前那些存储项目就是这么崩的,修着修着钱烧没了
Red Stuff这个思路确实不一样,难怪要重点研究一下
终于看到有人深度复盘存储项目的运营困局了,绝了
这个O(|blob|/n)的逻辑一旦跑起来,整个网络的韧性就不一样了
就怕节点波动频繁还是会出幺蛾子,Walrus这套能顶住吗
长期来看,修复成本下降这个设计确实是基础设施级别的思考
Balas0
gaslight_gasfeez
· 01-20 02:34
Masalah lingkaran mati penyimpanan terdesentralisasi memang luar biasa, ide desain untuk memperbaiki biaya yang berbalik menurun harus saya pikirkan baik-baik
Memperbaiki tagihan jauh lebih mahal daripada biaya penyimpanan, ini sangat nyata hahaha
Walrus dengan pendekatan (|blob|/n) memang berbeda, semakin banyak node semakin rendah biaya, ini secara terbalik adalah sistem insentif
Ngomong-ngomong, apakah desain seperti ini benar-benar bisa diterapkan, rasanya masih harus melihat data setelah implementasi
Keandalan jangka panjang > ledakan jangka pendek, ini adalah prinsip utama di tingkat penyimpanan
Saya sering berdiskusi dengan orang dalam komunitas tentang satu topik: jebakan paling umum dalam proyek penyimpanan terdesentralisasi, sebenarnya bukan soal seberapa merepotkan proses unggah di awal. Pembunuh sebenarnya adalah ini—setelah sistem berjalan satu atau dua tahun, node datang dan pergi, hard disk rusak, fluktuasi jaringan, pemindahan data center... "kerusakan" yang tampaknya sehari-hari ini secara perlahan mengikis margin keuntungan, dan akhirnya proyek harus menaikkan harga atau mengurangi jaminan keamanan. Siklus mati ini hampir menjadi mantra industri.
Baru-baru ini saya melihat mekanisme pemulihan Walrus, dan saya menemukan bahwa mereka mengambil pendekatan yang berbeda. Desain Red Stuff-nya memiliki fitur kunci: bandwidth pemulihan data yang hilang, secara ketat berbanding lurus dengan jumlah data yang hilang—dengan kata lain, sebanyak apa pun data yang hilang, akan diperbaiki sebanyak itu, tanpa harus memindahkan seluruh data lagi hanya untuk memperbaiki beberapa fragmen. Kedengarannya sederhana, tapi apa maknanya di balik itu?
Ini berarti biaya pemulihan berkurang secara invers dengan bertambahnya jumlah node yang berpartisipasi. Indikator teknisnya sangat jelas: bandwidth yang dibutuhkan setiap node untuk pemulihan dapat ditekan ke tingkat O(|blob|/n). Semakin besar jaringan dan semakin banyak node, biaya per unit justru semakin tipis. Ini sangat penting untuk jaringan terbuka—karena node secara alami masuk dan keluar, jika biaya pemulihan tidak menurun seiring skala, suatu saat akan muncul situasi absurd seperti "tagihan pemulihan lebih mahal dari biaya penyimpanan."
Logika ini, jika diterapkan ke lapisan aplikasi nyata, apa manfaatnya? Pertama, stabilitas harga. Pemulihan tidak akan menjadi lubang hitam operasional, sehingga proyek tidak perlu sering menaikkan harga atau memotong redundansi untuk "memperpanjang umur." Kedua, peningkatan ketersediaan. Proses pemulihan menjadi lebih ringan dan lebih rutin, sistem dapat menutup celah data lebih cepat, dan kemungkinan pengguna mengalami "tidak bisa membaca" berkurang secara signifikan. Lebih jauh lagi, ini adalah infrastruktur yang benar-benar cocok untuk aplikasi jangka panjang—baik menyimpan data pelatihan AI, file sumber daya game blockchain, halaman frontend, maupun arsip konten tingkat arsip—yang dibutuhkan bukan hanya keberhasilan sekali, tetapi kestabilan dan keandalan selama lima atau sepuluh tahun.
Jadi, saya melihat Walrus tidak hanya dari segi "seberapa lama bisa disimpan," tetapi juga dari "kalau rusak, bisa diperbaiki dengan biaya rendah dan semakin stabil." Desain Red Stuff yang membuat biaya pemulihan menurun seiring skala jaringan secara esensial adalah fondasi untuk keberlangsungan jangka panjang proyek ini. Pola desain seperti ini, inilah yang menjadi logika utama agar penyimpanan terdesentralisasi benar-benar bisa bertahan hidup.