Влияние DeepSeek на восходящие и нисходящие протоколы ИИ Web3

Автор оригинала: Кевин, BlockBooster

Перепечатка: Люк, Mars Finance

Одним из важных аспектов является согласование отношений между верхними и нижними уровнями соглашений.

Путем анализа технической архитектуры, функционального позиционирования и практических случаев использования я разделяю всю экосистему на: уровень инфраструктуры, промежуточный уровень, уровень модели, уровень приложений, и уточняю их взаимосвязь:

1、уровень инфраструктуры

Слой инфраструктуры предоставляет децентрализованные базовые ресурсы (вычислительная мощность, хранилище, L1), включая протоколы вычислительной мощности: Render, Akash, io.net и т.д .; протоколы хранения: Arweave, Filecoin, Storj и т.д .; L1: NEAR, Olas, Fetch.ai и т.д .

Протокол уровня вычислительной мощности поддерживает обучение моделей, вывод и работу фреймворка; протокол хранения сохраняет данные обучения, параметры модели и записи взаимодействия на цепочке; L1 оптимизирует эффективность передачи данных через специальные узлы, снижая задержку.

2、Промежуточный слой

Промежуточный слой является мостом между инфраструктурой и прикладными приложениями, предоставляет инструменты разработки фреймворков, службы данных и защиту конфиденциальности, включая такие протоколы разметки данных, как: Grass, Masa, Vana и другие; протоколы разработки фреймворков, такие как: Eliza, ARC, Swarms и другие; протоколы конфиденциальных вычислений, такие как: Phala и другие.

Слой службы данных обеспечивает топливо для обучения модели, фреймворк разработки зависит от вычислительных мощностей и хранилища на уровне базовой инфраструктуры, а слой конфиденциальных вычислений обеспечивает безопасность данных во время обучения / вывода.

3、Уровень модели

Модельный слой используется для разработки, обучения и распространения моделей, включая платформу открытого обучения моделей: Bittensor.

Модельный уровень зависит от вычислительных мощностей инфраструктурного уровня и данных промежуточного уровня; модели развертываются на цепи через разработанный фреймворк; рынок моделей доставляет результаты обучения на уровень приложений.

4、Прикладной уровень

Прикладной уровень - это продукт искусственного интеллекта, ориентированный на конечного пользователя, включающий агентов: GOAT, AIXBT и т. д .; Протокол DeFAI включает в себя: Griffain, Buzz и т. д.

Модель предварительного обучения уровня приложения вызывает модель уровня модели; конфиденциальное вычисление зависит от промежуточного слоя; сложные приложения требуют реальной вычислительной мощности инфраструктурного уровня.

Два, отрицательное влияние на децентрализованную вычислительную мощность

По результатам опроса по выборке около 70% проектов Web3 AI фактически используют OpenAI или централизованную облачную платформу, только 15% проектов используют децентрализованные GPU (например, модель подсети Bittensor), оставшиеся 15% - это гибридная архитектура (обработка локальных данных, облачные ресурсы для общих задач).

Использование протокола децентрализованной вычислительной мощности далеко не соответствует ожиданиям и не соответствует реальной рыночной стоимости. Существует три причины низкого использования: разработчики Web2, переходящие на Web3, продолжают использовать существующий инструментарий; децентрализованная платформа GPU до сих пор не обеспечивает преимущества цены; некоторые проекты используют термин «децентрализованный» для избегания проверки соответствия данным, и фактическая вычислительная мощность все еще зависит от централизованного облачного сервиса.

AWS/GCP занимают более 90% рыночной доли вычислительной мощности искусственного интеллекта, в то время как эквивалентная вычислительная мощность Akash составляет всего 0.2% от AWS. Централизованная облачная платформа имеет такие преимущества, как управление кластерами, высокоскоростные сети RDMA и эластичное масштабирование, в то время как у децентрализованной облачной платформы есть улучшенная версия этих технологий веб3, но недостатки, такие как проблемы с задержкой: время задержки в распределенной сети в 6 раз больше, чем в централизованном облаке; разрозненные инструменты: PyTorch/TensorFlow не поддерживают нативное децентрализованное планирование.

DeepSeek снижает потребление вычислительной мощности на 50% благодаря разреженному обучению (Sparse Training) и реализует обучение моделей с 100 миллиардами параметров на потребительских GPU благодаря динамическому обрезанию моделей. Ожидается значительное снижение спроса на высокопроизводительные GPU в ближайшее время, и потенциал рынка краевых вычислений будет переоценен. Как показано на рисунке выше, до появления DeepSeek большинство протоколов и приложений в отрасли использовали платформы типа AWS, и лишь немногие случаи развертывались в децентрализованной сети GPU. Эти случаи оценивают преимущества последнего в цене потребительской вычислительной мощности и не обращают внимания на задержку.

Эта ситуация может ухудшиться с появлением DeepSeek. DeepSeek снимает ограничения с длинного хвоста разработчиков, и недорогие и эффективные модели рассуждений будут распространяться со скоростью, невиданной ранее, в действительности на сегодняшний день централизованные облачные платформы и многие страны уже начали внедрять DeepSeek, что приведет к существенному снижению стоимости рассуждений и побудит к созданию большого количества приложений в области фронт-энда, которые будут иметь огромный спрос на потребление уровня GPU. Сталкиваясь с грядущим рынком, централизованные облачные платформы начнут новый раунд борьбы за пользователей, конкурируя не только с крупными платформами, но и с множеством маленьких централизованных облачных платформ. Самым прямым способом конкуренции является снижение цен, и можно предположить, что цены на 4090 на централизованных платформах снизятся, что будет катастрофой для вычислительных платформ Web3. Когда цена не является единственной защитой последних, и когда вычислительные платформы отрасли вынуждены снижать цены, результатом станет то, что io.net, Render, Akash не смогут выдержать. Ценовая война разрушит оставшиеся оценки, а спираль смерти, вызванная падением доходов и потерей пользователей, может заставить протоколы децентрализованных вычислительных мощностей изменить свое направление.

Третье, значение, принесенное соглашениями с верхним и нижним потоком

Как показано на рисунке, я считаю, что DeepSeek будет оказывать разное влияние на уровень инфраструктуры, уровень модели и уровень приложения, с позитивной стороны:

Прикладной уровень будет иметь выгоду от существенного снижения стоимости выводов, больше приложений смогут обеспечить длительное онлайн-присутствие агента с низкой стоимостью и выполнение задач в реальном времени;

Одновременно низкая стоимость модели, такая как DeepSeek, позволяет создавать более сложные SWARM в составе DeFAI протокола, где тысячи агентов используются для одного случая, и каждый агент имеет очень тонкое и ясное распределение обязанностей, что значительно повышает пользовательский опыт и предотвращает неправильное разбиение и выполнение ввода пользователей моделью;

Разработчики прикладного уровня могут настраивать модели, подавая цены на DeFi-связанные приложения ИИ, цепные данные и аналитику, данные о протоколе управления, не платя высокие лицензионные сборы.

После того, как появился слой открытых моделей в DeepSeek, его значение было доказано, и высококлассные модели были предоставлены длинному хвосту разработчиков, что может стимулировать широкий всплеск разработки;

За последние три года высокие стены вычислительной мощности, построенные вокруг высокопроизводительных GPU, были полностью разрушены, что дает разработчикам больше выбора, устанавливая направление для более открытых моделей. В будущем соревнование моделей искусственного интеллекта не будет уже касаться только вычислительной мощности, а скорее алгоритмов. Переход к новому видению станет основой уверенности для разработчиков открытых моделей.

Вокруг специфической подсети DeepSeek постоянно возникают новые модели, параметры модели при одинаковой вычислительной мощности увеличиваются, в сообщество с открытым исходным кодом присоединяется больше разработчиков.

С точки зрения негативного влияния:

В использовании задержка использования вычислительной мощности в инфраструктуре не может быть оптимизирована;

Смешанная сеть, состоящая из A100 и 4090, требует более высокого уровня координационного алгоритма, что не является преимуществом децентрализованной платформы.

Пробить пузырь агента, DeFAI вынашивает новую жизнь

Agent - последняя надежда индустрии на искусственный интеллект, появление DeepSeek освободило ограничения вычислительной мощности и нарисовало перспективы взрывного роста приложений. Это было огромным позитивным моментом для сегмента Agent, но из-за тесной связи с отраслью, американскими акциями и политикой ФРС пузырь лопнул, и рыночная капитализация этого сегмента упала на самое дно.

Во волне слияния ИИ и отрасли технологические прорывы и рыночные игры всегда тесно переплетены. Реакция на колебания капитализации NVIDIA вызывает цепную реакцию, похожую на зеркало истины, отражающее глубокие проблемы повествования об ИИ в отрасли: от On-chain Agent до DeFAI Engine, под видимо полной картиной экосистемы скрываются слабая техническая база, пустота логики ценности и жестокая действительность, доминируемая капиталом. Скрытые недуги процветающей цепочки: множество высокооцененных токенов FDV борются за ограниченную ликвидность, устаревшие активы выживают за счет FOMO, разработчики тратят инновационную энергию на внутренний сгорание в PVP. Когда инкрементальные средства и рост пользователей достигают потолка, вся отрасль попадает в «тупик инноваторов» - желает разрушить повествование с прорывом, но не в состоянии избавиться от оков путевой зависимости. Это раздирающее состояние именно для AI Agent предоставляет историческую возможность: он не только обновление технологического инструментария, но и перестройка парадигмы создания ценности.

В течение прошлого года все больше команд в отрасли обнаружили, что традиционная модель финансирования устарела — схема, в которой Венчурный капитал предоставляет небольшую долю, высоко контролирует и манипулирует рынком, становится все более непригодной. У Венчурного капитала ужесточается карман, мелкие инвесторы отказываются участвовать, требования к листингу на крупных биржах возрастают, под давлением этих трех факторов появляется новая стратегия, более подходящая для медвежьего рынка: объединение ведущих KOL и небольших Венчурных капиталов, активный запуск сообщества с высокой долей, холодный старт с низкой рыночной капитализацией.

Инноваторы, представленные Soon и Pump Fun, открывают новые пути через "Запуск сообщества" - поддержка лидеров мнений, распределение 40%-60% токенов напрямую сообществу, запуск проекта на оценочном уровне до 10 миллионов долларов США FDV для привлечения средств в размере миллионов долларов. Эта модель строит консенсус FOMO через влияние лидеров мнений, что позволяет команде заранее зафиксировать доходы, обеспечивая при этом высокую ликвидность за счет глубины рынка. Хотя отказ от преимуществ короткосрочного контроля над торговлей, это позволяет производить выкуп токенов по низкой цене в медвежьем рынке через схему соблюдения правил рынка. По сути, это переход парадигмы в структуре власти: от VC-ориентированной игры в "передай мяч" (институциональные инвесторы - IPO - розничные инвесторы) к прозрачной игре в ценообразование сообществом, в результате чего проект и сообщество формируют новые симбиотические отношения в премии за ликвидность. При вступлении отрасли в цикл прозрачности, проекты, остающиеся преданы традиционной логике контроля над торговлей, могут превратиться в теневые следствия эры переселения власти.

Краткосрочные боли на рынке являются подтверждением необратимости технологической волны. Когда AI агент снижает стоимость взаимодействия на цепи на два порядка, когда адаптивная модель продолжает оптимизировать эффективность капитала в DeFi протоколах, отрасль может ожидать долгожданного массового принятия. Эта переменная не зависит от концептуальных спекуляций или ускоренного капитала, а укоренена в технической проницаемости, основанной на реальных потребностях - точно так же, как революция в электроэнергетике не остановилась из-за банкротства производителей лампочек, агент в конечном итоге станет настоящей золотой трассой после лопнувшего пузыря. DeFAI, возможно, является плодородной почвой для нового рода, когда низкая стоимость рассуждений становится повседневной, мы, возможно, скоро увидим появление сотен случаев использования, в которых Agent будет объединен в Swarm. При равной вычислительной мощности значительное увеличение параметров модели может обеспечить более полную настройку Agent эпохи открытых моделей, даже в случае сложных входных команд пользователей, которые могут быть разбиты на задачи, которые может полностью выполнить отдельный Agent. Каждый Agent оптимизирует операции на цепи, что может способствовать увеличению активности и ликвидности в целом в DeFi протоколах. С DeFAI во главе появится еще больше сложных продуктов DeFi, и именно здесь появятся новые возможности после лопнувшего пузыря в прошлый раз.

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить