Я часто обсуждаю с коллегами внутри индустрии одну тему: самые распространённые ловушки при создании децентрализованных систем хранения данных — это вовсе не сложность первоначальной загрузки. Настоящая проблема — это вот что: после года или двух работы системы узлы начинают приходить и уходить, жесткие диски выходят из строя, возникают сетевые сбои, дата-центры мигрируют… Эти, казалось бы, повседневные «износные» явления постепенно съедают прибыльность проекта, и в итоге его либо вынуждают повышать цены, либо снижать уровень безопасности. Этот порочный круг практически стал индустриальным заклятием.
Недавно я ознакомился с механизмом восстановления Walrus и заметил, что он выбрал иной путь. Его дизайн Red Stuff обладает ключевой особенностью: пропускная способность для восстановления данных, потерянных из-за ошибок, строго пропорциональна объему утраченных данных — другими словами, сколько блоков данных вы потеряли, столько и восстанавливаете, без необходимости полностью переносить весь массив данных ради восстановления нескольких фрагментов. Звучит просто, но что это означает на практике?
Это означает, что стоимость восстановления при увеличении числа участвующих узлов снижается в обратную сторону. Технические показатели ясно показывают: пропускная способность каждого узла для восстановления данных не превышает уровень O(|blob|/n). Чем больше сеть и чем больше узлов, тем ниже становится средняя стоимость на единицу данных. Для открытых сетей это особенно важно — ведь узлы постоянно входят и выходят, и если затраты на восстановление не снижаются с ростом масштабов, рано или поздно возникнет абсурдная ситуация: «счёт за восстановление превышает стоимость хранения».
Что это значит на практике? Во-первых, стабильность цен. Восстановление не станет чёрной дырой для бюджета, и проект не будет вынужден часто повышать цены или урезать избыточность для «продления жизни». Во-вторых, повышается доступность. Процесс восстановления становится легче и более повседневным, система быстрее закрывает «дыры» в данных, а вероятность того, что пользователь столкнётся с ситуацией «нечитаемости» данных, значительно снижается. Глубже анализируя, можно сказать, что это действительно инфраструктура, подходящая для долгосрочных приложений — будь то хранение данных для обучения ИИ, ресурсы для блокчейн-игр, фронтенд-страницы или архивное хранение контента. Важен не однократный успех, а стабильная работа в течение пяти или десяти лет.
Поэтому я смотрю на Walrus не только с точки зрения «сколько он сможет хранить», но и с позиции «если что — можно ли его починить с минимальными затратами и при этом чтобы он становился всё более стабильным». Red Stuff, сделав дизайн восстановления, при котором издержки снижаются с ростом сети, по сути, закладывает фундамент для долгосрочной жизнеспособности этого проекта. Именно такой подход и есть настоящая логика, которая позволяет децентрализованному хранению данных выжить и развиваться.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Ладно, опять схема ремонтника, действительно ли она сможет работать пять или десять лет, посмотрим потом
---
O(|blob|/n)Эти математические модели выглядят красиво, но как долго узлы смогут работать, если их запустить?
---
Черт, наконец-то кто-то подробно объяснил расходы на ремонт, остальные проекты как-то обходили этот вопрос
---
Говоря откровенно, это экономия денег, звучит неплохо, но я все равно хочу увидеть финансовый отчет через полгода
---
Эта логика, в любом случае, намного лучше, чем сейчас у Filecoin в таком состоянии
---
Чем больше узлов, тем ниже стоимость? Подождите, как настроена система стимулов, не получится ли так, что никто не захочет запускать узлы?
---
Я просто хочу знать, когда Walrus сможет реализоваться, неужели опять будет только PPT-хранилище
Посмотреть ОригиналОтветить0
LiquidityWizard
· 01-20 02:35
卧槽,终于有人把这个点说透了。其他项目都在扯"去中心化"的皮,Walrus这套设计才是真正戳中要害
修复成本随节点数递减?这不就是越大越便宜吗,妙啊
之前那些存储项目就是这么崩的,修着修着钱烧没了
Red Stuff这个思路确实不一样,难怪要重点研究一下
终于看到有人深度复盘存储项目的运营困局了,绝了
这个O(|blob|/n)的逻辑一旦跑起来,整个网络的韧性就不一样了
就怕节点波动频繁还是会出幺蛾子,Walrus这套能顶住吗
长期来看,修复成本下降这个设计确实是基础设施级别的思考
Ответить0
gaslight_gasfeez
· 01-20 02:34
Проблема зацикливания децентрализованного хранения действительно уникальна, и идея о снижении стоимости исправления в обратную сторону требует хорошего обдумывания.
Исправление счетов обходится дороже, чем хранение данных — эта шутка очень правдоподобна, ха-ха.
Идея Walrus с (|blob|/n) действительно отличается: чем больше узлов, тем ниже стоимость, и это, по сути, система стимулов.
Кстати, сможет ли такая конструкция действительно реализоваться, кажется, многое зависит от данных после внедрения.
Долгосрочная надежность > краткосрочный взрыв — это действительно важный принцип в сфере хранения.
Я часто обсуждаю с коллегами внутри индустрии одну тему: самые распространённые ловушки при создании децентрализованных систем хранения данных — это вовсе не сложность первоначальной загрузки. Настоящая проблема — это вот что: после года или двух работы системы узлы начинают приходить и уходить, жесткие диски выходят из строя, возникают сетевые сбои, дата-центры мигрируют… Эти, казалось бы, повседневные «износные» явления постепенно съедают прибыльность проекта, и в итоге его либо вынуждают повышать цены, либо снижать уровень безопасности. Этот порочный круг практически стал индустриальным заклятием.
Недавно я ознакомился с механизмом восстановления Walrus и заметил, что он выбрал иной путь. Его дизайн Red Stuff обладает ключевой особенностью: пропускная способность для восстановления данных, потерянных из-за ошибок, строго пропорциональна объему утраченных данных — другими словами, сколько блоков данных вы потеряли, столько и восстанавливаете, без необходимости полностью переносить весь массив данных ради восстановления нескольких фрагментов. Звучит просто, но что это означает на практике?
Это означает, что стоимость восстановления при увеличении числа участвующих узлов снижается в обратную сторону. Технические показатели ясно показывают: пропускная способность каждого узла для восстановления данных не превышает уровень O(|blob|/n). Чем больше сеть и чем больше узлов, тем ниже становится средняя стоимость на единицу данных. Для открытых сетей это особенно важно — ведь узлы постоянно входят и выходят, и если затраты на восстановление не снижаются с ростом масштабов, рано или поздно возникнет абсурдная ситуация: «счёт за восстановление превышает стоимость хранения».
Что это значит на практике? Во-первых, стабильность цен. Восстановление не станет чёрной дырой для бюджета, и проект не будет вынужден часто повышать цены или урезать избыточность для «продления жизни». Во-вторых, повышается доступность. Процесс восстановления становится легче и более повседневным, система быстрее закрывает «дыры» в данных, а вероятность того, что пользователь столкнётся с ситуацией «нечитаемости» данных, значительно снижается. Глубже анализируя, можно сказать, что это действительно инфраструктура, подходящая для долгосрочных приложений — будь то хранение данных для обучения ИИ, ресурсы для блокчейн-игр, фронтенд-страницы или архивное хранение контента. Важен не однократный успех, а стабильная работа в течение пяти или десяти лет.
Поэтому я смотрю на Walrus не только с точки зрения «сколько он сможет хранить», но и с позиции «если что — можно ли его починить с минимальными затратами и при этом чтобы он становился всё более стабильным». Red Stuff, сделав дизайн восстановления, при котором издержки снижаются с ростом сети, по сути, закладывает фундамент для долгосрочной жизнеспособности этого проекта. Именно такой подход и есть настоящая логика, которая позволяет децентрализованному хранению данных выжить и развиваться.