[Источник данных:Цена BTC]
С момента появления блокчейна в 2009 году прошло более 15 лет. Как сдвиг парадигмы в цифровой технологии, он регистрирует цифровые и сетевые значения, делая криптовалюту новым инновационным явлением в капитальной парадигме.
В качестве первородного, Биткоин готов стать стратегическим резервным активом. На конференции по Биткоину в 2024 году Трамп сделал обязательство, заявив, что если он вернется в Белый дом, он обеспечит сохранение правительством 100% его владений в Биткоине и определит его как стратегический резервный актив для США.
После победы Трампа на выборах, биткойн вырос на 150%, достигнув пика в $107,287.
Победа Трампа явно более благоприятна для криптоиндустрии, поскольку он неоднократно выражал крепкую поддержку криптовалют.
Однако в краткосрочной перспективе высокая чувствительность криптовалют к результатам выборов может привести к пикам краткосрочной волатильности на рынке. Будет ли этот сильный восходящий импульс устойчивым? Автор считает, что только путем устранения неопределенности и улучшения масштабируемости блокчейна можно открыть новое «рыбное место».
[Источник данных:DefiLlama]
Под прожекторами TVL (Total Value Locked) Ethereum, второй по величине криптовалюте по капитализации, остается слабым с тех пор, как достиг своего исторического пика в 2021 году.
Даже в третьем квартале 2024 года доходы децентрализованной финансовой системы Ethereum (DeFi) снизились до 261 миллиона долларов, что является самым низким уровнем с четвертого квартала 2020 года.
На первый взгляд может быть некоторое количество всплесков, но общий тренд показывает замедление активности DeFi на сети Ethereum.
Кроме того, на рынке наблюдается появление совершенно альтернативных экосистем блокчейна, таких как недавно популярный hyperliquid, торговая цепочка, основанная на модели ордерной книги. Его данные быстро растут, и его рыночная капитализация за две недели взлетела в топ-50. Ожидается, что он сгенерирует годовой доход, который занимает почти самую низкую позицию среди всех блокчейнов, кроме Ethereum, Solana и Tron. Это косвенно подчеркивает усталость традиционного DeFi на Ethereum, основанного на AMM архитектуре.
[Data source: Объем торгов Compound]
[Источник данных:Торговый объем на Uniswap]
DeFi был когда-то основным акцентом экосистемы Ethereum, но из-за снижения комиссий за транзакции и активности пользователей его доход значительно сократился.
В ответ автор пытается размышлять о причинах текущих дилемм, с которыми сталкивается Ethereum, или весь блокчейн, и о том, как их преодолеть.
Совпадение или нет, но благодаря пятому успешному испытанию SpaceX, компания становится всё более яркой звездой в коммерческой космической эксплуатации. Основным методом развития SpaceX были первоначальные принципы. (Совет: понятие первоначальных принципов было впервые предложено древнегреческим философом Аристотелем более 2300 лет назад. Он описал первоначальные принципы как «самые базовые предпосылки или утверждения в каждой системе исследований, которые нельзя опустить, удалить или нарушить».)
Теперь давайте также применим метод первопринципов, постепенно снимая слой тумана, чтобы исследовать фундаментальные «атомы» индустрии блокчейна. С фундаментальной точки зрения мы переосмыслим текущие дилеммы и возможности, с которыми сталкивается эта отрасль.
“Облачный сервис” Web3 – шаг назад или будущее?
Когда была представлена концепция AO (Actor Oriented), она привлекла широкое внимание. На фоне увеличения однородности общественных блокчейнов на основе EVM, AO, как разрушающая архитектурная концепция, продемонстрировала уникальное привлекательность.
Это не просто теоретическая концепция, но команда уже воплощает ее на практике.
Как уже упоминалось ранее, наибольшая ценность блокчейна заключается в записи цифровой стоимости. С этой точки зрения он служит общедоступным прозрачным глобальным публичным реестром. Исходя из этой сути, можно утверждать, что первый принцип блокчейна — «хранение».
AO реализуется через парадигму консенсуса (SCP), основанную на хранении. Пока хранение остается неизменным, вне зависимости от того, где происходит вычисление, результат может быть гарантированно согласованным. Мировой компьютер AO родился, обеспечивая взаимодействие и сотрудничество масштабных параллельных вычислений.
Одним из наиболее заметных событий в пространстве Web3 в 2024 году был взрыв экосистемы надписей, который можно рассматривать как раннюю практику разделения хранения и вычислений. Например, технология гравировки, используемая протоколом Runes, позволяет внедрять небольшие объемы данных в транзакции Bitcoin. Хотя эти данные не влияют на основную функцию транзакции, они служат дополнительной информацией, образуя четкий, проверяемый и неисчерпаемый вывод.
Хотя некоторые технические наблюдатели изначально высказывали опасения относительно безопасности биткоин-инскрипций, опасаясь, что они могут стать потенциальными точками входа для сетевых атак,
за последние два года она полностью хранила данные в блокчейне, и до сих пор не произошло никаких разветвлений блокчейна. Эта стабильность еще раз доказывает, что если данные не подвергаются вмешательству, то независимо от того, где происходит вычисление, можно гарантировать согласованность и безопасность данных.
Возможно, вы заметите, что это почти идентично традиционным облачным сервисам. Например:
С точки зрения управления вычислительными ресурсами в архитектуре AO, «Актор» - это независимая вычислительная сущность, и каждая вычислительная единица может запускать свою собственную среду. Не напоминает ли это микросервисы и Docker в традиционных облачных серверах? Аналогично, традиционные облачные сервисы полагаются на S3 или NFS для хранения, в то время как AO полагается на Arweave.
Однако простое сведение AO к "перегретой старой идее" было бы недостоверным. Хотя AO заимствует некоторые концепции дизайна у традиционных облачных сервисов, его основа заключается в объединении децентрализованного хранения с распределенным вычислением. Arweave, как децентрализованная сеть хранения, фундаментально отличается от традиционного централизованного хранения. Этот децентрализованный характер обеспечивает данным Web3 более высокую безопасность и устойчивость к цензуре.
Более важно, сочетание AO и Arweave - это не просто простой технический стек; он создает новую парадигму. Эта парадигма объединяет преимущества производительности распределенных вычислений с надежностью децентрализованного хранения, обеспечивая прочную основу для инноваций и развития приложений Web3. Конкретно, это сочетание проявляется в следующих двух аспектах:
Далее будет рассмотрен концепт и архитектурное проектирование AO в глубину и проанализировано, как оно решает дилеммы, с которыми сталкиваются существующие публичные блокчейны, такие как Ethereum, в конечном итоге принося новые возможности развития веб-3.
С тех пор, как Ethereum появился с умными контрактами, он, безусловно, стал доминирующей силой.
Некоторые могут спросить, а разве нет Биткоина? Однако важно отметить, что Биткойн был создан в качестве замены традиционным валютам, стремясь стать децентрализованной цифровой денежной системой. С другой стороны, Эфириум - это не просто криптовалюта; это платформа, которая позволяет создавать и выполнять смарт-контракты и децентрализованные приложения (DApps).
В целом, Биткойн является цифровой альтернативой традиционным деньгам, имеет высокую цену, но не обязательно высокую стоимость. Однако, Эфириум больше похож на платформу с открытым исходным кодом, предлагающую больше перспективной стоимости в терминах богатства, и он лучше представляет текущую концептуальную визию открытого мира Web3.
С 2017 года многие проекты пытались побить Ethereum, но очень мало из них смогли продержаться. Производительность Ethereum долго критиковали, что привело к появлению решений Layer 2. Однако, кажущийся процветающим рост Layer 2 на самом деле является отчаянной борьбой перед лицом трудностей. С усилением конкуренции постепенно возник ряд проблем, которые серьезно ограничивают развитие Web3:
[Источник данных:DeFiLlama]
[Data source: L2 BEAT]
В последнее время все больше людей считают, что план масштабирования Ethereum на уровне 2 (L2) провалился.
Изначально L2 рассматривался как важное продолжение субкультуры Ethereum в стратегии масштабирования. Он также поддерживался ожиданием, что L2 снизит комиссии за газ и улучшит пропускную способность, что приведет к росту как числа пользователей, так и объемов транзакций. Однако, несмотря на снижение комиссий за газ, ожидаемый рост числа пользователей не осуществился.
На самом деле, действительно ли L2 виноват в неудаче плана масштабирования? Очевидно, что L2 всего лишь козел отпущения. Хотя он несет некоторую ответственность, основная ответственность лежит на самой Ethereum. Кроме того, этот результат является неизбежным следствием основных проблем проектирования большинства цепей Web3 сегодня.
Чтобы объяснить это с «атомной» точки зрения, L2 отвечает за вычисления, в то время как Ethereum обрабатывает основное «хранение» блокчейна. Для обеспечения достаточной безопасности Ethereum должен хранить данные и достигать консенсуса.
Однако конструкция Ethereum предотвращает потенциальные бесконечные циклы во время выполнения, которые могли бы привести к полной остановке всей платформы. Поэтому выполнение любого смарт-контракта ограничено конечным числом шагов вычислений.
Это приводит к парадоксу, что L2 создана для бесконечной производительности, но, на самом деле, ограничения основной цепи накладывают на нее потолок.
Эффект узкого места диктует, что у L2 есть верхний предел.
Для более детального понимания механизма читатели могут изучить его дальше, прочитав:«От традиционного DeFi к AgentFi: исследование будущего децентрализованной финансовой системы».
Самым гордым достижением Ethereum является процветающая экосистема приложений, в которой разрабатываются различные децентрализованные приложения (DApps).
Однако ли экосистема действительно настолько живая и разнообразная, как кажется?
Очевидно, ответ - нет. За процветанием экосистемы приложений Ethereum стоит финансово насыщенная среда с значительным дефицитом зрелых нефинансовых приложений.
Давайте посмотрим на более процветающие секторы приложений на Ethereum:
Сначала такие концепции, как NFT, DeFi, GameFi и SocialFi, хотя и инновационны с финансовой точки зрения, пока не подходят для широкой публики. Рост Web2 обусловлен его функциональностью, которая тесно связана с повседневной жизнью людей.
По сравнению с финансовыми продуктами и услугами, обычные пользователи более заинтересованы в функциях, таких как обмен сообщениями, общение, видеопоток и электронная коммерция.
Во-вторых, с конкурентной точки зрения, кредитование в традиционной финансовой сфере является очень распространенным и широко используемым продуктом. Однако в пространстве DeFi такой тип продукта все еще достаточно редок. Основная причина - отсутствие эффективной системы кредитования в блокчейне.
Построение кредитной системы требует, чтобы пользователи действительно владели своими онлайн-профилями и социальными графами, которые могут преодолевать границы различных приложений.
Только когда эта децентрализованная информация может храниться и передаваться без затрат, можно создать мощный персональный граф информации Web3 и кредитную систему приложений Web3.
Здесь мы подтверждаем ключевую проблему: неудача Layer 2 (L2) в привлечении значительного числа пользователей не является ее виной. L2 никогда не была основной движущей силой. Настоящий способ преодолеть дилемму Web3 - это разработка новых сценариев применения, которые привлекают пользователей.
Однако текущая ситуация похожа на застревание в праздничных пробках - несмотря на множество инновационных идей, их трудно продвигать вперед из-за ограничений производительности транзакций.
Суть блокчейна - это "хранение". Когда хранение и вычисление связаны, оно становится менее "атомным". В таком неоригинальном дизайне неизбежно возникнет потолок производительности.
Некоторые точки зрения определяют сущность блокчейна как платформу для совершения транзакций, систему валюты или подчеркивают прозрачность и анонимность. Однако эти точки зрения игнорируют фундаментальные характеристики блокчейна как структуры данных и его широкий потенциал применения. Блокчейн не только для финансовых транзакций, его архитектура позволяет охватывать множество отраслей, таких как управление цепочкой поставок, медицинские записи и даже управление авторскими правами.
Суть блокчейна заключается в его способности функционировать как система хранения. Это не только потому, что он может безопасно хранить данные, но и потому, что он гарантирует целостность и прозрачность данных через механизм распределенного консенсуса. Как только блок добавлен в цепочку, его почти невозможно изменить или удалить.
[Data source: L2 скорость транзакций]
Основная архитектура блокчейна сталкивается с явным узким местом: ограничение места блока. Это похоже на регистр фиксированного размера, где каждая транзакция и запись данных должны быть записаны в блоке. Как Ethereum, так и другие блокчейны ограничены размером блока, что приводит к конкуренции за место среди транзакций. Это вызывает ключевой вопрос: можно ли преодолеть это ограничение? Должно ли пространство блока всегда быть ограниченным? Существует ли способ достичь истинной бесконечной масштабируемости?
Хотя решение L2 Ethereum добилось успеха в масштабировании производительности, его можно считать только частичным успехом. L2 увеличил пропускную способность на несколько порядков, что может быть достаточно для обработки пиковых нагрузок на транзакции для отдельных проектов. Однако для большинства решений L2, которые полагаются на хранение и безопасность консенсуса основной цепи, такой уровень масштабируемости далек от достаточного.
Важно отметить, что TPS (транзакций в секунду) уровня L2 не может быть бесконечно увеличен, в основном из-за следующих ограничивающих факторов: доступность данных, скорость расчетов, затраты на верификацию, пропускная способность сети и сложность контрактов. Хотя Rollups оптимизировали потребности в хранении и вычислениях на уровне 1 (L1) путем сжатия и валидации, они все равно требуют, чтобы данные были представлены и проверены на L1, таким образом ограничиваясь пропускной способностью L1 и временем блока. Кроме того, вычислительные затраты, такие как генерация доказательств с нулевой информацией, узловые узкие места в производительности и требования к исполнению сложных контрактов, также ограничивают масштабируемость L2.
[Data source: suiscan TPS]
Реальным вызовом для Web3 является ограниченная пропускная способность и недостаточное количество приложений, что делает сложным привлечение новых пользователей и сопряжено с риском потерять влияние.
Простыми словами, увеличение пропускной способности является ключом к светлому будущему для Web3. Достижение сети с бесконечной масштабируемостью и высокой пропускной способностью - это ее видение. Например, Sui использует детерминированную параллельную обработку, предварительно упорядочивая транзакции, чтобы избежать конфликтов и тем самым повысить предсказуемость и масштабируемость. Благодаря этому дизайну Sui может обрабатывать более 10 000 транзакций в секунду (TPS). Кроме того, архитектура Sui позволяет увеличивать пропускную способность путем добавления большего количества узлов-валидаторов, теоретически достигая бесконечной масштабируемости. Использование протоколов Narwhal и Tusk минимизирует задержку, обеспечивая эффективную параллельную обработку транзакций и преодоление проблем масштабируемости традиционных решений второго уровня.
Концепция AO, которую мы обсуждаем, следует аналогичному пути, сосредотачиваясь на разных аспектах, но нацеленная на создание масштабируемой системы хранения в блокчейне.
Web3 требует новой инфраструктуры, построенной на первоначальных принципах, с хранилищем в качестве его основы. Как и то, как Элон Маск переосмыслил запуски ракет и электромобили на основе фундаментальных принципов, перерабатывая эти сложные технологии для нарушения отраслей, дизайн AO также отражает этот подход. Отделив вычисление от хранилища, AO отказывается от традиционных блокчейн-структур, создавая будущеориентированные основы хранения Web3 и направляя Web3 к видению децентрализованных облачных сервисов.
Перед тем как представить AO, нам нужно обсудить относительно новый дизайн-парадигму, называемую SCP.
Хотя SCP многим может быть незнакомо, большинство людей слышали о надписях на Bitcoin. Грубо говоря, концепция дизайна за надписями может рассматриваться как форма хранения, основанная на мышлении в терминах 'атомарных' единиц, хотя с некоторыми отклонениями. Интересно, Виталик также выразил интерес стать «бумажной лентой» для Web3, что соответствует философии МКП.
В модели Ethereum вычисления выполняются полными узлами, глобально хранятся и доступны для запросов. Этот подход превращает Ethereum в «мировой компьютер», но работает как однопоточная программа, выполняющая шаги последовательно. Эта внутренняя неэффективность также создает плодородную почву для MEV (максимально извлекаемой стоимости). Подписи транзакций попадают в мемпул Ethereum, публично транслируются и сортируются майнерами, обычно в течение 12 секунд. Однако этого краткого временного окна достаточно для «исследователей», чтобы перехватывать, имитировать и даже обратно разрабатывать потенциальные стратегии. Подробнее об этой теме можно узнать в "Ландшафт MEV год спустя после слияния Ethereum."
SCP, в отличие, отделяет вычисление от хранения. Эта концепция может звучать абстрактно, поэтому давайте использовать аналогию с Web2.
В сценариях Web2, таких как обмен сообщениями или онлайн-шопинг, пиковая нагрузка может вызвать внезапные скачки, которые не в состоянии обработать отдельная машина. Инженеры решили эту проблему, распределяя вычислительные задачи по нескольким машинам, синхронизируя и сохраняя их результаты для управления трафиком эластично. Точно так же SCP распределяет вычисления по узлам. В отличие от традиционных систем, использующих базы данных, такие как MySQL, SCP использует блокчейн-основные сети для хранения.
Простыми словами, SCP использует блокчейн для хранения данных, в то время как внеблоковые серверы обрабатывают вычисления и создание состояния. Эта архитектура обеспечивает надежность данных и позволяет создать высокопроизводительную, слоистую сеть, отдельную от основного блокчейна.
В SCP блокчейн служит только как средство хранения, в то время как внешние клиенты или серверы выполняют все вычисления и управляют полученными состояниями. Такой подход значительно повышает масштабируемость и производительность. Однако возникает важный вопрос: можно ли гарантировать целостность и безопасность данных, когда вычисления и хранение разделены?
В основном блокчейн выступает в качестве решения для хранения данных, с вычислениями, перенесенными на серверы. В отличие от традиционных механизмов консенсуса в блокчейне, SCP перемещает консенсус из цепи.
Преимущества этого подхода
Без сложных процессов согласования каждый сервер полностью сосредоточен на своих вычислительных задачах, что обеспечивает почти бесконечную обработку транзакций и снижение операционных затрат.
Хотя похоже на текущие решения масштабируемости rollup, амбиции SCP идут дальше. Он нацелен не только на решение проблемы масштабируемости блокчейна, но и на предоставление трансформационного пути от Web2 к Web3.
Какие преимущества у SCP? SCP разделяет вычисления и хранение. Такой дизайн не только повышает гибкость и составляемость системы, но и снижает барьеры разработки, эффективно преодолевая ограничения производительности традиционных блокчейнов и обеспечивая достоверность данных. Эти инновации делают SCP эффективной и масштабируемой инфраструктурой, которая дает возможность развития будущей децентрализованной экосистемы.
Биткойн решил проблему "Византийских генералов", представив PoW, революционный подход, разработанный Сатоси Накамото в рамках ограничений времени, что в конечном итоге привело к успеху Биткойна.
Аналогично, при решении вычислительных задач смарт-контрактов, начиная с первых принципов, можно получить на первый взгляд парадоксальное решение. Однако, смело децентрализуя вычислительные функции и возвращая блокчейн к его основной сущности, можно обеспечить консенсус хранения, соответствуя требованиям открытости данных и верифицируемости. Такой подход обеспечивает производительность на уровне Web2, воплощая сущность SCP.
После всего этого обсуждения мы наконец приходим к AO.
Первое, AO принимает шаблон проектирования, известный как модель акторов, который изначально был реализован на языке программирования Erlang.
Архитектура и технология, лежащие в основе AO, построены на основе парадигмы SCP, разделяя слой вычислений и слой хранения. Это позволяет слою хранения оставаться постоянно децентрализованным, в то время как слой вычислений сохраняет структуру традиционных вычислений.
Вычислительные ресурсы AO похожи на те, что есть в традиционных моделях вычислений, но включают постоянный слой хранения, позволяющий отслеживать и децентрализовать процессы вычислений.
На этом этапе вам может статься интересно, какую основную цепь использует AO для своего слоя хранения?
Ясно, использование Bitcoin или Ethereum в качестве слоя хранения было бы не практично. Причины этого уже обсуждались ранее, и читатели, вероятно, легко это поймут. В AO хранение данных и окончательная верификация в конечном итоге осуществляются Arweave.
Почему выбрать Arweave среди множества децентрализованных решений для хранения?
Выбор Arweave в качестве слоя хранения основан в первую очередь на его уникальном фокусе на постоянном хранении данных в децентрализованной сети. Arweave позиционирует себя как «глобальный жесткий диск, где данные никогда не теряются», в отличие от «глобального реестра» Bitcoin и «глобального компьютера» Ethereum. По сути, Arweave функционирует как глобальный жесткий диск, разработанный таким образом, чтобы никогда не терять данные.
Для получения более подробной технической информации о Arweave обратитесь к:Понимание Arweave: ключевая инфраструктура Web3“
[Data source: Как работает Messenger | Руководство]
Ядро AO заключается в создании вычислительного уровня, который бесконечно масштабируем и независим от окружения. Узлы AO сотрудничают на основе протоколов и механизмов коммуникации, обеспечивая оптимальное обслуживание каждого узла для предотвращения конкурентоспособного потребления.
Сначала давайте поймем основную архитектуру AO. AO состоит из процессов и сообщений, а также единиц планирования (SU), вычислительных блоков (CU) и блоков передачи сообщений (MU):
Важно отметить, что у AO нет общих состояний, а вместо этого у него есть голографические состояния. Консенсус в AO возникает из теории игр. Поскольку каждое вычисление генерирует состояние, которое загружается в Arweave, это обеспечивает проверяемость данных. Когда у пользователей возникают сомнения относительно определенных данных, они могут запросить у одного или нескольких узлов вычисление данных на Arweave. Если результаты расчетов не совпадают, нечестные узлы будут наказаны.
Инновация архитектуры AO заключается в ее механизмах хранения и проверки данных, которые заменяют избыточные вычисления и ограниченное пространство блоков, характерные для традиционных блокчейнов, с использованием децентрализованного хранения (Arweave) и голографических состояний.
Ограничения на блочное пространство традиционных блокчейнов не являются непреодолимыми. Архитектура AO, полагаясь на децентрализованное хранение и голографические состояния, изменяет способ обработки хранения и проверки данных, что позволяет достичь неограниченной масштабируемости.
Не обязательно. Механизмы консенсуса не обязательно должны полагаться на избыточные вычисления, и их можно реализовать разными способами. Решения, которые зависят от хранения, а не от избыточных вычислений, могут быть осуществимыми в определенных сценариях, особенно когда целостность и согласованность данных могут быть обеспечены с помощью проверки хранения.
В архитектуре AO хранение служит альтернативой избыточным вычислениям. Загрузив вычислительные результаты в децентрализованную сеть хранения (в этом случае Arweave), система обеспечивает неизменность данных. Кроме того, благодаря голографической загрузке состояний, любой узел может проверить результаты вычислений в любое время, обеспечивая согласованность и корректность данных. Этот подход опирается на надежность хранения данных, а не на повторение каждым узлом вычислений.
Легко увидеть, что основные характеристики AO можно суммировать в две ключевые точки:
Для двух основных дилемм, с которыми сталкивается Ethereum - ограничения производительности и отсутствие приложений, я считаю, что именно здесь блеснет AO. Причины следующие:
Разделение вычислений и хранения - блестящая концепция, и это систематический дизайн, основанный на первоначальных принципах.
Как направление повествования, подобное "децентрализованным облачным службам", оно не только обеспечивает надежный сценарий приземления, но и предлагает более широкое пространство для сочетания с искусственным интеллектом.
На самом деле, только по-настоящему понимая фундаментальные потребности Web3, мы можем освободиться от дилемм и ограничений, вызванных зависимостью от пути.
Интеграция SCP и AO предлагает совершенно новый подход: она наследует все функции SCP, больше не размещает смарт-контракты в блокчейне, а вместо этого сохраняет неменяемые и отслеживаемые данные в блокчейне, обеспечивая доверие к данным, которое может проверить любой.
Конечно, на данный момент нет абсолютно идеального пути. AO все еще находится на начальном этапе развития. Как предотвратить чрезмерную финансовую ориентацию Web3, создать достаточное количество сценариев применения и открыть больше возможностей для будущего, все еще является вызовом на пути AO к успеху. Способность AO представить удовлетворительный ответ будет определена рынком и временем.
Комбинация SCP и AO, как парадигма развития, полная потенциала, хотя её идеи пока ещё не получили широкого признания на рынке, ожидается, что AO в будущем сыграет важную роль в области Web3, даже способствуя дальнейшему развитию Web3.
Отказ от ответственности:
Compartilhar
[Источник данных:Цена BTC]
С момента появления блокчейна в 2009 году прошло более 15 лет. Как сдвиг парадигмы в цифровой технологии, он регистрирует цифровые и сетевые значения, делая криптовалюту новым инновационным явлением в капитальной парадигме.
В качестве первородного, Биткоин готов стать стратегическим резервным активом. На конференции по Биткоину в 2024 году Трамп сделал обязательство, заявив, что если он вернется в Белый дом, он обеспечит сохранение правительством 100% его владений в Биткоине и определит его как стратегический резервный актив для США.
После победы Трампа на выборах, биткойн вырос на 150%, достигнув пика в $107,287.
Победа Трампа явно более благоприятна для криптоиндустрии, поскольку он неоднократно выражал крепкую поддержку криптовалют.
Однако в краткосрочной перспективе высокая чувствительность криптовалют к результатам выборов может привести к пикам краткосрочной волатильности на рынке. Будет ли этот сильный восходящий импульс устойчивым? Автор считает, что только путем устранения неопределенности и улучшения масштабируемости блокчейна можно открыть новое «рыбное место».
[Источник данных:DefiLlama]
Под прожекторами TVL (Total Value Locked) Ethereum, второй по величине криптовалюте по капитализации, остается слабым с тех пор, как достиг своего исторического пика в 2021 году.
Даже в третьем квартале 2024 года доходы децентрализованной финансовой системы Ethereum (DeFi) снизились до 261 миллиона долларов, что является самым низким уровнем с четвертого квартала 2020 года.
На первый взгляд может быть некоторое количество всплесков, но общий тренд показывает замедление активности DeFi на сети Ethereum.
Кроме того, на рынке наблюдается появление совершенно альтернативных экосистем блокчейна, таких как недавно популярный hyperliquid, торговая цепочка, основанная на модели ордерной книги. Его данные быстро растут, и его рыночная капитализация за две недели взлетела в топ-50. Ожидается, что он сгенерирует годовой доход, который занимает почти самую низкую позицию среди всех блокчейнов, кроме Ethereum, Solana и Tron. Это косвенно подчеркивает усталость традиционного DeFi на Ethereum, основанного на AMM архитектуре.
[Data source: Объем торгов Compound]
[Источник данных:Торговый объем на Uniswap]
DeFi был когда-то основным акцентом экосистемы Ethereum, но из-за снижения комиссий за транзакции и активности пользователей его доход значительно сократился.
В ответ автор пытается размышлять о причинах текущих дилемм, с которыми сталкивается Ethereum, или весь блокчейн, и о том, как их преодолеть.
Совпадение или нет, но благодаря пятому успешному испытанию SpaceX, компания становится всё более яркой звездой в коммерческой космической эксплуатации. Основным методом развития SpaceX были первоначальные принципы. (Совет: понятие первоначальных принципов было впервые предложено древнегреческим философом Аристотелем более 2300 лет назад. Он описал первоначальные принципы как «самые базовые предпосылки или утверждения в каждой системе исследований, которые нельзя опустить, удалить или нарушить».)
Теперь давайте также применим метод первопринципов, постепенно снимая слой тумана, чтобы исследовать фундаментальные «атомы» индустрии блокчейна. С фундаментальной точки зрения мы переосмыслим текущие дилеммы и возможности, с которыми сталкивается эта отрасль.
“Облачный сервис” Web3 – шаг назад или будущее?
Когда была представлена концепция AO (Actor Oriented), она привлекла широкое внимание. На фоне увеличения однородности общественных блокчейнов на основе EVM, AO, как разрушающая архитектурная концепция, продемонстрировала уникальное привлекательность.
Это не просто теоретическая концепция, но команда уже воплощает ее на практике.
Как уже упоминалось ранее, наибольшая ценность блокчейна заключается в записи цифровой стоимости. С этой точки зрения он служит общедоступным прозрачным глобальным публичным реестром. Исходя из этой сути, можно утверждать, что первый принцип блокчейна — «хранение».
AO реализуется через парадигму консенсуса (SCP), основанную на хранении. Пока хранение остается неизменным, вне зависимости от того, где происходит вычисление, результат может быть гарантированно согласованным. Мировой компьютер AO родился, обеспечивая взаимодействие и сотрудничество масштабных параллельных вычислений.
Одним из наиболее заметных событий в пространстве Web3 в 2024 году был взрыв экосистемы надписей, который можно рассматривать как раннюю практику разделения хранения и вычислений. Например, технология гравировки, используемая протоколом Runes, позволяет внедрять небольшие объемы данных в транзакции Bitcoin. Хотя эти данные не влияют на основную функцию транзакции, они служат дополнительной информацией, образуя четкий, проверяемый и неисчерпаемый вывод.
Хотя некоторые технические наблюдатели изначально высказывали опасения относительно безопасности биткоин-инскрипций, опасаясь, что они могут стать потенциальными точками входа для сетевых атак,
за последние два года она полностью хранила данные в блокчейне, и до сих пор не произошло никаких разветвлений блокчейна. Эта стабильность еще раз доказывает, что если данные не подвергаются вмешательству, то независимо от того, где происходит вычисление, можно гарантировать согласованность и безопасность данных.
Возможно, вы заметите, что это почти идентично традиционным облачным сервисам. Например:
С точки зрения управления вычислительными ресурсами в архитектуре AO, «Актор» - это независимая вычислительная сущность, и каждая вычислительная единица может запускать свою собственную среду. Не напоминает ли это микросервисы и Docker в традиционных облачных серверах? Аналогично, традиционные облачные сервисы полагаются на S3 или NFS для хранения, в то время как AO полагается на Arweave.
Однако простое сведение AO к "перегретой старой идее" было бы недостоверным. Хотя AO заимствует некоторые концепции дизайна у традиционных облачных сервисов, его основа заключается в объединении децентрализованного хранения с распределенным вычислением. Arweave, как децентрализованная сеть хранения, фундаментально отличается от традиционного централизованного хранения. Этот децентрализованный характер обеспечивает данным Web3 более высокую безопасность и устойчивость к цензуре.
Более важно, сочетание AO и Arweave - это не просто простой технический стек; он создает новую парадигму. Эта парадигма объединяет преимущества производительности распределенных вычислений с надежностью децентрализованного хранения, обеспечивая прочную основу для инноваций и развития приложений Web3. Конкретно, это сочетание проявляется в следующих двух аспектах:
Далее будет рассмотрен концепт и архитектурное проектирование AO в глубину и проанализировано, как оно решает дилеммы, с которыми сталкиваются существующие публичные блокчейны, такие как Ethereum, в конечном итоге принося новые возможности развития веб-3.
С тех пор, как Ethereum появился с умными контрактами, он, безусловно, стал доминирующей силой.
Некоторые могут спросить, а разве нет Биткоина? Однако важно отметить, что Биткойн был создан в качестве замены традиционным валютам, стремясь стать децентрализованной цифровой денежной системой. С другой стороны, Эфириум - это не просто криптовалюта; это платформа, которая позволяет создавать и выполнять смарт-контракты и децентрализованные приложения (DApps).
В целом, Биткойн является цифровой альтернативой традиционным деньгам, имеет высокую цену, но не обязательно высокую стоимость. Однако, Эфириум больше похож на платформу с открытым исходным кодом, предлагающую больше перспективной стоимости в терминах богатства, и он лучше представляет текущую концептуальную визию открытого мира Web3.
С 2017 года многие проекты пытались побить Ethereum, но очень мало из них смогли продержаться. Производительность Ethereum долго критиковали, что привело к появлению решений Layer 2. Однако, кажущийся процветающим рост Layer 2 на самом деле является отчаянной борьбой перед лицом трудностей. С усилением конкуренции постепенно возник ряд проблем, которые серьезно ограничивают развитие Web3:
[Источник данных:DeFiLlama]
[Data source: L2 BEAT]
В последнее время все больше людей считают, что план масштабирования Ethereum на уровне 2 (L2) провалился.
Изначально L2 рассматривался как важное продолжение субкультуры Ethereum в стратегии масштабирования. Он также поддерживался ожиданием, что L2 снизит комиссии за газ и улучшит пропускную способность, что приведет к росту как числа пользователей, так и объемов транзакций. Однако, несмотря на снижение комиссий за газ, ожидаемый рост числа пользователей не осуществился.
На самом деле, действительно ли L2 виноват в неудаче плана масштабирования? Очевидно, что L2 всего лишь козел отпущения. Хотя он несет некоторую ответственность, основная ответственность лежит на самой Ethereum. Кроме того, этот результат является неизбежным следствием основных проблем проектирования большинства цепей Web3 сегодня.
Чтобы объяснить это с «атомной» точки зрения, L2 отвечает за вычисления, в то время как Ethereum обрабатывает основное «хранение» блокчейна. Для обеспечения достаточной безопасности Ethereum должен хранить данные и достигать консенсуса.
Однако конструкция Ethereum предотвращает потенциальные бесконечные циклы во время выполнения, которые могли бы привести к полной остановке всей платформы. Поэтому выполнение любого смарт-контракта ограничено конечным числом шагов вычислений.
Это приводит к парадоксу, что L2 создана для бесконечной производительности, но, на самом деле, ограничения основной цепи накладывают на нее потолок.
Эффект узкого места диктует, что у L2 есть верхний предел.
Для более детального понимания механизма читатели могут изучить его дальше, прочитав:«От традиционного DeFi к AgentFi: исследование будущего децентрализованной финансовой системы».
Самым гордым достижением Ethereum является процветающая экосистема приложений, в которой разрабатываются различные децентрализованные приложения (DApps).
Однако ли экосистема действительно настолько живая и разнообразная, как кажется?
Очевидно, ответ - нет. За процветанием экосистемы приложений Ethereum стоит финансово насыщенная среда с значительным дефицитом зрелых нефинансовых приложений.
Давайте посмотрим на более процветающие секторы приложений на Ethereum:
Сначала такие концепции, как NFT, DeFi, GameFi и SocialFi, хотя и инновационны с финансовой точки зрения, пока не подходят для широкой публики. Рост Web2 обусловлен его функциональностью, которая тесно связана с повседневной жизнью людей.
По сравнению с финансовыми продуктами и услугами, обычные пользователи более заинтересованы в функциях, таких как обмен сообщениями, общение, видеопоток и электронная коммерция.
Во-вторых, с конкурентной точки зрения, кредитование в традиционной финансовой сфере является очень распространенным и широко используемым продуктом. Однако в пространстве DeFi такой тип продукта все еще достаточно редок. Основная причина - отсутствие эффективной системы кредитования в блокчейне.
Построение кредитной системы требует, чтобы пользователи действительно владели своими онлайн-профилями и социальными графами, которые могут преодолевать границы различных приложений.
Только когда эта децентрализованная информация может храниться и передаваться без затрат, можно создать мощный персональный граф информации Web3 и кредитную систему приложений Web3.
Здесь мы подтверждаем ключевую проблему: неудача Layer 2 (L2) в привлечении значительного числа пользователей не является ее виной. L2 никогда не была основной движущей силой. Настоящий способ преодолеть дилемму Web3 - это разработка новых сценариев применения, которые привлекают пользователей.
Однако текущая ситуация похожа на застревание в праздничных пробках - несмотря на множество инновационных идей, их трудно продвигать вперед из-за ограничений производительности транзакций.
Суть блокчейна - это "хранение". Когда хранение и вычисление связаны, оно становится менее "атомным". В таком неоригинальном дизайне неизбежно возникнет потолок производительности.
Некоторые точки зрения определяют сущность блокчейна как платформу для совершения транзакций, систему валюты или подчеркивают прозрачность и анонимность. Однако эти точки зрения игнорируют фундаментальные характеристики блокчейна как структуры данных и его широкий потенциал применения. Блокчейн не только для финансовых транзакций, его архитектура позволяет охватывать множество отраслей, таких как управление цепочкой поставок, медицинские записи и даже управление авторскими правами.
Суть блокчейна заключается в его способности функционировать как система хранения. Это не только потому, что он может безопасно хранить данные, но и потому, что он гарантирует целостность и прозрачность данных через механизм распределенного консенсуса. Как только блок добавлен в цепочку, его почти невозможно изменить или удалить.
[Data source: L2 скорость транзакций]
Основная архитектура блокчейна сталкивается с явным узким местом: ограничение места блока. Это похоже на регистр фиксированного размера, где каждая транзакция и запись данных должны быть записаны в блоке. Как Ethereum, так и другие блокчейны ограничены размером блока, что приводит к конкуренции за место среди транзакций. Это вызывает ключевой вопрос: можно ли преодолеть это ограничение? Должно ли пространство блока всегда быть ограниченным? Существует ли способ достичь истинной бесконечной масштабируемости?
Хотя решение L2 Ethereum добилось успеха в масштабировании производительности, его можно считать только частичным успехом. L2 увеличил пропускную способность на несколько порядков, что может быть достаточно для обработки пиковых нагрузок на транзакции для отдельных проектов. Однако для большинства решений L2, которые полагаются на хранение и безопасность консенсуса основной цепи, такой уровень масштабируемости далек от достаточного.
Важно отметить, что TPS (транзакций в секунду) уровня L2 не может быть бесконечно увеличен, в основном из-за следующих ограничивающих факторов: доступность данных, скорость расчетов, затраты на верификацию, пропускная способность сети и сложность контрактов. Хотя Rollups оптимизировали потребности в хранении и вычислениях на уровне 1 (L1) путем сжатия и валидации, они все равно требуют, чтобы данные были представлены и проверены на L1, таким образом ограничиваясь пропускной способностью L1 и временем блока. Кроме того, вычислительные затраты, такие как генерация доказательств с нулевой информацией, узловые узкие места в производительности и требования к исполнению сложных контрактов, также ограничивают масштабируемость L2.
[Data source: suiscan TPS]
Реальным вызовом для Web3 является ограниченная пропускная способность и недостаточное количество приложений, что делает сложным привлечение новых пользователей и сопряжено с риском потерять влияние.
Простыми словами, увеличение пропускной способности является ключом к светлому будущему для Web3. Достижение сети с бесконечной масштабируемостью и высокой пропускной способностью - это ее видение. Например, Sui использует детерминированную параллельную обработку, предварительно упорядочивая транзакции, чтобы избежать конфликтов и тем самым повысить предсказуемость и масштабируемость. Благодаря этому дизайну Sui может обрабатывать более 10 000 транзакций в секунду (TPS). Кроме того, архитектура Sui позволяет увеличивать пропускную способность путем добавления большего количества узлов-валидаторов, теоретически достигая бесконечной масштабируемости. Использование протоколов Narwhal и Tusk минимизирует задержку, обеспечивая эффективную параллельную обработку транзакций и преодоление проблем масштабируемости традиционных решений второго уровня.
Концепция AO, которую мы обсуждаем, следует аналогичному пути, сосредотачиваясь на разных аспектах, но нацеленная на создание масштабируемой системы хранения в блокчейне.
Web3 требует новой инфраструктуры, построенной на первоначальных принципах, с хранилищем в качестве его основы. Как и то, как Элон Маск переосмыслил запуски ракет и электромобили на основе фундаментальных принципов, перерабатывая эти сложные технологии для нарушения отраслей, дизайн AO также отражает этот подход. Отделив вычисление от хранилища, AO отказывается от традиционных блокчейн-структур, создавая будущеориентированные основы хранения Web3 и направляя Web3 к видению децентрализованных облачных сервисов.
Перед тем как представить AO, нам нужно обсудить относительно новый дизайн-парадигму, называемую SCP.
Хотя SCP многим может быть незнакомо, большинство людей слышали о надписях на Bitcoin. Грубо говоря, концепция дизайна за надписями может рассматриваться как форма хранения, основанная на мышлении в терминах 'атомарных' единиц, хотя с некоторыми отклонениями. Интересно, Виталик также выразил интерес стать «бумажной лентой» для Web3, что соответствует философии МКП.
В модели Ethereum вычисления выполняются полными узлами, глобально хранятся и доступны для запросов. Этот подход превращает Ethereum в «мировой компьютер», но работает как однопоточная программа, выполняющая шаги последовательно. Эта внутренняя неэффективность также создает плодородную почву для MEV (максимально извлекаемой стоимости). Подписи транзакций попадают в мемпул Ethereum, публично транслируются и сортируются майнерами, обычно в течение 12 секунд. Однако этого краткого временного окна достаточно для «исследователей», чтобы перехватывать, имитировать и даже обратно разрабатывать потенциальные стратегии. Подробнее об этой теме можно узнать в "Ландшафт MEV год спустя после слияния Ethereum."
SCP, в отличие, отделяет вычисление от хранения. Эта концепция может звучать абстрактно, поэтому давайте использовать аналогию с Web2.
В сценариях Web2, таких как обмен сообщениями или онлайн-шопинг, пиковая нагрузка может вызвать внезапные скачки, которые не в состоянии обработать отдельная машина. Инженеры решили эту проблему, распределяя вычислительные задачи по нескольким машинам, синхронизируя и сохраняя их результаты для управления трафиком эластично. Точно так же SCP распределяет вычисления по узлам. В отличие от традиционных систем, использующих базы данных, такие как MySQL, SCP использует блокчейн-основные сети для хранения.
Простыми словами, SCP использует блокчейн для хранения данных, в то время как внеблоковые серверы обрабатывают вычисления и создание состояния. Эта архитектура обеспечивает надежность данных и позволяет создать высокопроизводительную, слоистую сеть, отдельную от основного блокчейна.
В SCP блокчейн служит только как средство хранения, в то время как внешние клиенты или серверы выполняют все вычисления и управляют полученными состояниями. Такой подход значительно повышает масштабируемость и производительность. Однако возникает важный вопрос: можно ли гарантировать целостность и безопасность данных, когда вычисления и хранение разделены?
В основном блокчейн выступает в качестве решения для хранения данных, с вычислениями, перенесенными на серверы. В отличие от традиционных механизмов консенсуса в блокчейне, SCP перемещает консенсус из цепи.
Преимущества этого подхода
Без сложных процессов согласования каждый сервер полностью сосредоточен на своих вычислительных задачах, что обеспечивает почти бесконечную обработку транзакций и снижение операционных затрат.
Хотя похоже на текущие решения масштабируемости rollup, амбиции SCP идут дальше. Он нацелен не только на решение проблемы масштабируемости блокчейна, но и на предоставление трансформационного пути от Web2 к Web3.
Какие преимущества у SCP? SCP разделяет вычисления и хранение. Такой дизайн не только повышает гибкость и составляемость системы, но и снижает барьеры разработки, эффективно преодолевая ограничения производительности традиционных блокчейнов и обеспечивая достоверность данных. Эти инновации делают SCP эффективной и масштабируемой инфраструктурой, которая дает возможность развития будущей децентрализованной экосистемы.
Биткойн решил проблему "Византийских генералов", представив PoW, революционный подход, разработанный Сатоси Накамото в рамках ограничений времени, что в конечном итоге привело к успеху Биткойна.
Аналогично, при решении вычислительных задач смарт-контрактов, начиная с первых принципов, можно получить на первый взгляд парадоксальное решение. Однако, смело децентрализуя вычислительные функции и возвращая блокчейн к его основной сущности, можно обеспечить консенсус хранения, соответствуя требованиям открытости данных и верифицируемости. Такой подход обеспечивает производительность на уровне Web2, воплощая сущность SCP.
После всего этого обсуждения мы наконец приходим к AO.
Первое, AO принимает шаблон проектирования, известный как модель акторов, который изначально был реализован на языке программирования Erlang.
Архитектура и технология, лежащие в основе AO, построены на основе парадигмы SCP, разделяя слой вычислений и слой хранения. Это позволяет слою хранения оставаться постоянно децентрализованным, в то время как слой вычислений сохраняет структуру традиционных вычислений.
Вычислительные ресурсы AO похожи на те, что есть в традиционных моделях вычислений, но включают постоянный слой хранения, позволяющий отслеживать и децентрализовать процессы вычислений.
На этом этапе вам может статься интересно, какую основную цепь использует AO для своего слоя хранения?
Ясно, использование Bitcoin или Ethereum в качестве слоя хранения было бы не практично. Причины этого уже обсуждались ранее, и читатели, вероятно, легко это поймут. В AO хранение данных и окончательная верификация в конечном итоге осуществляются Arweave.
Почему выбрать Arweave среди множества децентрализованных решений для хранения?
Выбор Arweave в качестве слоя хранения основан в первую очередь на его уникальном фокусе на постоянном хранении данных в децентрализованной сети. Arweave позиционирует себя как «глобальный жесткий диск, где данные никогда не теряются», в отличие от «глобального реестра» Bitcoin и «глобального компьютера» Ethereum. По сути, Arweave функционирует как глобальный жесткий диск, разработанный таким образом, чтобы никогда не терять данные.
Для получения более подробной технической информации о Arweave обратитесь к:Понимание Arweave: ключевая инфраструктура Web3“
[Data source: Как работает Messenger | Руководство]
Ядро AO заключается в создании вычислительного уровня, который бесконечно масштабируем и независим от окружения. Узлы AO сотрудничают на основе протоколов и механизмов коммуникации, обеспечивая оптимальное обслуживание каждого узла для предотвращения конкурентоспособного потребления.
Сначала давайте поймем основную архитектуру AO. AO состоит из процессов и сообщений, а также единиц планирования (SU), вычислительных блоков (CU) и блоков передачи сообщений (MU):
Важно отметить, что у AO нет общих состояний, а вместо этого у него есть голографические состояния. Консенсус в AO возникает из теории игр. Поскольку каждое вычисление генерирует состояние, которое загружается в Arweave, это обеспечивает проверяемость данных. Когда у пользователей возникают сомнения относительно определенных данных, они могут запросить у одного или нескольких узлов вычисление данных на Arweave. Если результаты расчетов не совпадают, нечестные узлы будут наказаны.
Инновация архитектуры AO заключается в ее механизмах хранения и проверки данных, которые заменяют избыточные вычисления и ограниченное пространство блоков, характерные для традиционных блокчейнов, с использованием децентрализованного хранения (Arweave) и голографических состояний.
Ограничения на блочное пространство традиционных блокчейнов не являются непреодолимыми. Архитектура AO, полагаясь на децентрализованное хранение и голографические состояния, изменяет способ обработки хранения и проверки данных, что позволяет достичь неограниченной масштабируемости.
Не обязательно. Механизмы консенсуса не обязательно должны полагаться на избыточные вычисления, и их можно реализовать разными способами. Решения, которые зависят от хранения, а не от избыточных вычислений, могут быть осуществимыми в определенных сценариях, особенно когда целостность и согласованность данных могут быть обеспечены с помощью проверки хранения.
В архитектуре AO хранение служит альтернативой избыточным вычислениям. Загрузив вычислительные результаты в децентрализованную сеть хранения (в этом случае Arweave), система обеспечивает неизменность данных. Кроме того, благодаря голографической загрузке состояний, любой узел может проверить результаты вычислений в любое время, обеспечивая согласованность и корректность данных. Этот подход опирается на надежность хранения данных, а не на повторение каждым узлом вычислений.
Легко увидеть, что основные характеристики AO можно суммировать в две ключевые точки:
Для двух основных дилемм, с которыми сталкивается Ethereum - ограничения производительности и отсутствие приложений, я считаю, что именно здесь блеснет AO. Причины следующие:
Разделение вычислений и хранения - блестящая концепция, и это систематический дизайн, основанный на первоначальных принципах.
Как направление повествования, подобное "децентрализованным облачным службам", оно не только обеспечивает надежный сценарий приземления, но и предлагает более широкое пространство для сочетания с искусственным интеллектом.
На самом деле, только по-настоящему понимая фундаментальные потребности Web3, мы можем освободиться от дилемм и ограничений, вызванных зависимостью от пути.
Интеграция SCP и AO предлагает совершенно новый подход: она наследует все функции SCP, больше не размещает смарт-контракты в блокчейне, а вместо этого сохраняет неменяемые и отслеживаемые данные в блокчейне, обеспечивая доверие к данным, которое может проверить любой.
Конечно, на данный момент нет абсолютно идеального пути. AO все еще находится на начальном этапе развития. Как предотвратить чрезмерную финансовую ориентацию Web3, создать достаточное количество сценариев применения и открыть больше возможностей для будущего, все еще является вызовом на пути AO к успеху. Способность AO представить удовлетворительный ответ будет определена рынком и временем.
Комбинация SCP и AO, как парадигма развития, полная потенциала, хотя её идеи пока ещё не получили широкого признания на рынке, ожидается, что AO в будущем сыграет важную роль в области Web3, даже способствуя дальнейшему развитию Web3.
Отказ от ответственности: