Многие люди при взгляде на Walrus сначала думают, что его связь с Sui немного напряжена. Но это не недостаток, а наоборот, изящный элемент дизайна.
Сам Sui уже реализован очень агрессивно в плане параллельного выполнения. Как только объектная модель отделена, независимые объекты обрабатываются напрямую параллельно, а для совместного использования объектов применяется оптимизационная схема Mysticeti, достигающая финальности в доли секунды. Что это означает? Это означает, что метаданные и координационный слой Walrus полностью размещены на Sui, и это совершенно не станет узким местом. В отличие от других цепочек хранения, где механизм консенсуса работает последовательно, и при загрузке большого файла приходится ждать всей сети, что очень неудобно для пользователя.
Настоящее новшество — это сегментация. Walrus использует кодирование с исправлением ошибок (эррор-кодирование), параметры которого настроены очень интересно — консервативно и гибко. Консервативность означает очень низкий уровень избыточности: начиная с 1.5-кратного запаса можно обеспечить высокую доступность, а гибкость — в том, что голосование по управлению может быть настроено до 3-кратного запаса по необходимости. Почему можно смело увеличивать избыточность? Потому что высокая пропускная способность Sui значительно снижает издержки на координацию транзакций.
Процесс выглядит так: пользователь инициирует запрос на хранение, система делит файл на несколько сотен частей и одновременно генерирует доказательства исправления ошибок. Эти доказательства параллельно проверяются на Sui, затем команды распространяются и транслируются по сети узлов. Узлы получают фрагменты, сохраняют их, после чего отправляют подтверждение, которое собирается и записывается в блокчейн. Весь процесс занимает секунды.
Что означает «секундный»? Для сценариев миграции данных объемом в гигабайты или терабайты, таких как AI-датасеты, можно полностью ускорить процесс, не ожидая пакетных окон. Это полностью недоступно для централизованных систем хранения.
Еще один сценарий — это реальное время для AI-агентов. Агентам нужно динамически подтягивать веса моделей и исторические датасеты для вычислений, и если задержка хранения высокая, весь цикл inference застревает. В Walrus популярные данные автоматически кэшируются с несколькими копиями, параллельное чтение достигает максимума, а объектная модель Sui позволяет параллельно координировать кэш-копии. Для приложений с высокими требованиями к реальному времени это — настоящее прорыв в производительности.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
12 Лайков
Награда
12
4
Репост
Поделиться
комментарий
0/400
WhaleMistaker
· 10ч назад
Мгновенное хранение действительно впечатляет, но параллельная архитектура Sui справляется, а настройка параметров кодирования с исправлением ошибок действительно имеет значение
Посмотреть ОригиналОтветить0
GateUser-addcaaf7
· 10ч назад
Ой, параллельные возможности Sui действительно поняли, Walrus — эта схема исправления ошибок выполняется за секунды, и эффективность по сравнению с централизованным хранением все еще не выдерживает
Посмотреть ОригиналОтветить0
WenMoon
· 10ч назад
Мгновенное хранение? Правда или нет, это именно то, каким должно быть распределенное хранение
Посмотреть ОригиналОтветить0
LidoStakeAddict
· 10ч назад
Мгновенное хранение действительно отлично, объектная модель Sui в сочетании с кодированием с исправлением ошибок работает очень хорошо
Многие люди при взгляде на Walrus сначала думают, что его связь с Sui немного напряжена. Но это не недостаток, а наоборот, изящный элемент дизайна.
Сам Sui уже реализован очень агрессивно в плане параллельного выполнения. Как только объектная модель отделена, независимые объекты обрабатываются напрямую параллельно, а для совместного использования объектов применяется оптимизационная схема Mysticeti, достигающая финальности в доли секунды. Что это означает? Это означает, что метаданные и координационный слой Walrus полностью размещены на Sui, и это совершенно не станет узким местом. В отличие от других цепочек хранения, где механизм консенсуса работает последовательно, и при загрузке большого файла приходится ждать всей сети, что очень неудобно для пользователя.
Настоящее новшество — это сегментация. Walrus использует кодирование с исправлением ошибок (эррор-кодирование), параметры которого настроены очень интересно — консервативно и гибко. Консервативность означает очень низкий уровень избыточности: начиная с 1.5-кратного запаса можно обеспечить высокую доступность, а гибкость — в том, что голосование по управлению может быть настроено до 3-кратного запаса по необходимости. Почему можно смело увеличивать избыточность? Потому что высокая пропускная способность Sui значительно снижает издержки на координацию транзакций.
Процесс выглядит так: пользователь инициирует запрос на хранение, система делит файл на несколько сотен частей и одновременно генерирует доказательства исправления ошибок. Эти доказательства параллельно проверяются на Sui, затем команды распространяются и транслируются по сети узлов. Узлы получают фрагменты, сохраняют их, после чего отправляют подтверждение, которое собирается и записывается в блокчейн. Весь процесс занимает секунды.
Что означает «секундный»? Для сценариев миграции данных объемом в гигабайты или терабайты, таких как AI-датасеты, можно полностью ускорить процесс, не ожидая пакетных окон. Это полностью недоступно для централизованных систем хранения.
Еще один сценарий — это реальное время для AI-агентов. Агентам нужно динамически подтягивать веса моделей и исторические датасеты для вычислений, и если задержка хранения высокая, весь цикл inference застревает. В Walrus популярные данные автоматически кэшируются с несколькими копиями, параллельное чтение достигает максимума, а объектная модель Sui позволяет параллельно координировать кэш-копии. Для приложений с высокими требованиями к реальному времени это — настоящее прорыв в производительности.