23 травня чіповий гігант NVIDIA опублікував фінансовий звіт за перший квартал фінансового року 2025 року. Звіт показав, що обсяг виручки NVIDIA в першому кварталі становив 26 мільярдів доларів. Зокрема, доходи від центрів обробки даних зросли на 427% в порівнянні з минулим роком і склали дивовижну суму в 22,6 мільярдів доларів. Те, що NVIDIA може самостійно врятувати фінансові показники американського фондового ринку, свідчить про вибух обчислювальної потужності глобальних технологічних компаній у змаганні за штучний інтелект. Чим вищий рівень технологічної компанії в пошуках штучного інтелекту, тим більші амбіції вона має в цьому напрямку, і відповідно, попит цих компаній на обчислювальну потужність також зростає експоненційно. За прогнозами TrendForce, до 2024 року великі американські хмарні сервіси, такі як Microsoft, Google, AWS та Meta, очікуються забрати 20,2%, 16,6%, 16% та 10,8% відповідно високопродуктивних AI-серверів у світовому попиті, загалом понад 60%.
Джерело зображень:
"Нехватка чіпів" стала одним з головних тематичних слів останніх років. З одного боку, навчання та виконання великих мовних моделей (LLM) потребує значного обчислювального потужності; і разом з ітераціями моделі, витрати на обчислювальну потужність і попит зростають експоненційно. З іншого боку, великі компанії, такі як Meta, закуповують великі обсяги чіпів, що призводить до перекосу глобальних ресурсів обчислювальної потужності на користь таких технологічних гігантів, що робить все складніше для малих підприємств отримати необхідні ресурси обчислювальної потужності. Проблема, з якою стикаються малі підприємства, не тільки походить з недостатньої пропонування чіпів, викликаної зростаючим попитом, але й з структурними суперечностями в пропонуванні. Наразі на ринку присутні значні невикористані графічні процесори (GPU), наприклад, деякі дата-центри мають значні невикористані обчислювальні потужності (використання становить лише 12% - 18%), а в криптовалютній видобутку також виникають значні невикористані ресурси обчислювальної потужності через зменшення прибутків. Хоча ці ресурси обчислювальної потужності не завжди підходять для професійних застосувань, таких як навчання штучного інтелекту, вони все ж можуть знайти велике застосування в інших галузях, таких як інференс штучного інтелекту, хмарний геймінг, хмарні телефони тощо. Це велика можливість для інтеграції та використання цих ресурсів обчислювальної потужності.
Звернувшийся до AI від crypto, після трьох років спокою на криптовалютному ринку, нарешті настав час чергового бичачого ринку, коли ціна на біткойни знову побила рекорди, і безліч мемкойнів з'явилися безперервно. ** Хоча AI і Crypto стали популярними термінами цих років, штучний інтелект і блокчейн, як дві важливі технології, здаються паралельними лініями, які досі не зустрілися в одній точці. ** На початку цього року Віталік опублікував статтю під назвою «Обіцянка та виклики застосування крипто + AI», в якій розглядаються перспективи поєднання AI та крипто. Віталік у статті згадує багато фантазій, включаючи використання технологій шифрування, таких як блокчейн та MPC, для децентралізованого навчання та інференції AI, що дозволить розкрити чорний ящик машинного навчання та зробити модель AI більш довіреною тощо. Ці побажання ще потребують багато роботи для реалізації. ** Але один з випадків, який Віталік згадує - використання економічного стимулювання крипто для дотування AI, - є важливим напрямком, який можна реалізувати в найближчий час. Децентралізована мережа обчислювальної потужності є одним з найбільш підходящих сценаріїв для AI + крипто на цьому етапі. **
2 Децентралізація обчислювальної мережі
Наразі на дорозі до розвитку децентралізованої мережі обчислювальної потужності вже існує чимало проектів. Основна логіка цих проектів схожа і може бути узагальнена як: використання токенів для стимулювання власників обчислювальної потужності для участі в мережі та надання послуг обчислювальної потужності. Ці розпорошені ресурси потужності можуть бути об'єднані в децентралізовану мережу обчислювальної потужності певного масштабу. Це дозволить не лише підвищити використання неробочої обчислювальної потужності, але й задовольнити потреби клієнтів у потужності за менші кошти, забезпечуючи виграш як покупцям, так і продавцям.
Для того щоб читачі змогли в короткі терміни отримати загальне уявлення про цю галузь, у цій статті буде здійснено деконструкцію конкретних проектів і всієї галузі з мікро- та макроперспективи з метою надання читачам аналітичного погляду на розуміння основних конкурентних переваг кожного проекту та загального розвитку галузі обчислювальної потужності децентралізованого характеру. Автор розгляне та проаналізує п'ять проектів: Aethir, io.net, Render Network, Akash Network, Gensyn, і зробить підсумок та оцінку стану проектів та розвитку галузі.
З аналітичної точки зору, якщо ми сконцентруємося на конкретній децентралізованій обчислювальній мережі, ми можемо розглянути її як чотири основні складові частини:
Жорсткий мережі:об'єднання розпорошених ресурсів обчислювальної потужності, реалізація спільного використання та балансування навантаження ресурсів обчислювальної потужності за допомогою вузлів, розташованих по всьому світу, є базовим рівнем децентралізованої мережі обчислювальної потужності.
Двосторонній ринок: забезпечує безпечну платформу для торгівлі, яка поєднує постачальників та попит на обчислювальну потужність за допомогою правильного механізму ціноутворення та виявлення, забезпечуючи прозорість, справедливість та довіру між сторонами угоди.
Механізм консенсусу: використовується для забезпечення правильної роботи та виконання завдань вузлами в мережі. Механізм консенсусу в основному використовується для контролю двох аспектів: 1) перевірка, чи працюють вузли в режимі онлайн і готові приймати завдання в активному стані; 2) доказ роботи вузла: після отримання завдання вузол правильно виконує його, обчислювальна потужність не використовується для інших цілей і не займає процесу та потоку.
Токенізація:модель токенізації використовується для стимулювання більшої участі у наданні / використанні послуг, а також захоплення цього мережевого ефекту токеном для спільного отримання користі від спільноти.
Якщо поглянути з пташиного польоту на всю доріжку обчислювальної потужності децентралізації, дослідження Blockworks Research надає хорошу аналітичну рамку, за якою можна розмістити проекти цієї доріжки на три різні рівні.
Bare metal layer: Основний рівень, що становить основу децентралізованого стеку обчислювальної потужності, його основним завданням є збір початкових ресурсів обчислювальної потужності та забезпечення можливості їх виклику за допомогою API.
Orchestration layer: 中間овий шар, що складає децентралізований обчислювальний стек, основним завданням якого є координація та абстрагування, відповідальний за планування, розширення, операції, балансування навантаження та відмовостійкість обчислювальної потужності. Основна функція полягає в «абстрагуванні» складності управління апаратним забезпеченням нижчого рівня, надаючи кінцевому користувачеві більш високорівневий інтерфейс, спрямований на обслуговування конкретних клієнтів.
Aggregation layer: Топовий рівень у складі децентралізованого стеку обчислень, його основне завдання - інтеграція та надання єдиного інтерфейсу, який дозволяє користувачам виконувати різноманітні обчислювальні завдання в одному місці, такі як тренування штучного інтелекту, рендерінг, zkML та інше. Він виконує роль оркестрування та розподілу послуг декількох децентралізованих обчислювальних сервісів.
Джерело зображення: Youbi Capital
За допомогою цих двох аналітичних рамок ми порівняємо вибрані п'ять проєктів горизонтально і оцінимо їх з чотирьох аспектів - основний бізнес, ринкове положення, апаратне забезпечення та фінансові показники.
2.1 Основний бізнес
З логіки основного рівня, децентралізована мережа вишукування має високий рівень однорідності, тобто використовує токени для стимулювання володарів невикористаної обчислювальної потужності надавати послуги обчислювальної потужності. Виходячи з цієї основної логіки, ми можемо розуміти різницю в основному бізнесі проекту з трьох аспектів.
Джерело невикористаної обчислювальної потужності:
На ринку є два основних джерела вільної обчислювальної потужності: 1) вільна обчислювальна потужність у власності підприємств, таких як центри обробки даних та майнерські компанії; 2) вільна обчислювальна потужність у власності роздрібних споживачів. Обчислювальна потужність від центрів обробки даних зазвичай є обладнанням професійного рівня, тоді як роздрібні споживачі зазвичай придбають чіпи рівня споживання.
Відомо, що Aethir, Akash Network та Gensyn збирають обчислювальну потужність від підприємств. Основна перевага збору обчислювальної потужності від підприємств полягає в наступному: 1) підприємства та центри обробки даних зазвичай мають більш високу якість апаратного забезпечення та професійні команди з обслуговування, що забезпечує вищу продуктивність та надійність ресурсів обчислювальної потужності; 2) ресурси обчислювальної потужності підприємств та центрів обробки даних зазвичай більш однотипні, а їхнє централізоване управління та моніторинг забезпечує більш ефективне розподілення та обслуговування ресурсів. Однак, цей підхід вимагає від проекту високої вимог до здійснення комерційних контактів з підприємствами, що мають обчислювальну потужність. В той же час, масштабованість та рівень децентралізації будуть дещо обмеженими.
Render Network та io.net головним чином стимулюють власників невикористаної обчислювальної потужності. Переваги збору потужності від власників невикористаної обчислювальної потужності полягають у тому, що: 1) власники невикористаної обчислювальної потужності мають менші очевидні витрати і можуть надавати більш економічні ресурси обчислювальної потужності; 2) мережа є більш масштабованою та децентралізованою, що збільшує еластичність та стійкість системи. Однак недоліки полягають в тому, що ресурси власників невикористаної обчислювальної потужності розподілені по всьому світу та не уніфіковані, що призводить до складнощів у керуванні та розподілі. Крім того, важко створити перший ефект мережі, використовуючи обчислювальну потужність власників невикористаної потужності. Нарешті, є більше можливостей для зловживань даними або обчислювальною потужністю, що походять від обладнання власників невикористаної потужності та може становити ризик для безпеки даних та обчислювальної потужності.
Обчислювальна потужність споживача
З точки зору споживачів обчислювальної потужності, Aethir, io.net та Gensyn мають на меті головним чином підприємства. Для клієнтів B2B потрібні високопродуктивні обчислення для інтелектуального аналізу та онлайн-ігор. Цей тип навантажень вимагає великої обчислювальної потужності, зазвичай потрібні високопродуктивні GPU або професійне обладнання. Крім того, клієнти B2B високо цінують стабільність та надійність обчислювальних ресурсів, тому необхідно надавати високоякісні сервісні рівні угоди, щоб забезпечити нормальну роботу проектів і надавати своєчасну технічну підтримку. Одночасно, вартість переходу клієнтів B2B досить висока, і якщо децентралізована мережа не має зрілих SDK, що дозволяє розробникам швидко розгортати проекти (наприклад, Akash Network потребує, щоб користувачі розробляли на віддаленому порту), то дуже складно переконати клієнтів переходити на нову мережу. Якщо це не суттєвою перевагою в ціні, то воля клієнтів переходити буде дуже низькою.
Render Network та Akash Network надають послуги обчислювальної потужності простим користувачам. Для клієнтів зі сторони споживачів проект потребує простого та зрозумілого інтерфейсу та інструментів, щоб забезпечити гарний досвід споживання. Крім того, споживачі дуже чутливі до цін, тому проект повинен надавати конкурентоспроможні ціни.
Тип апаратного забезпечення
Звичайні обчислювальні апаратні засоби включають CPU, FPGA, GPU, ASIC та SoC тощо. Ці апаратні засоби мають значні відмінності у цілях проектування, характеристиках продуктивності та областях застосування. Узагальнюючи, CPU краще справляється з загальними обчислювальними завданнями, перевага FPGA полягає в високопаралельній обробці та програмованості, GPU відзначається відмінною роботою в паралельних обчисленнях, ASIC має найвищу ефективність у конкретних завданнях, а SoC об'єднує різноманітні функції і відповідає для високоінтегрованих застосувань. Вибір конкретного обладнання залежить від потреб конкретного застосування, вимог продуктивності та врахування витрат. Багато з проектів з децентралізованою обчислювальною потужністю, про які ми говоримо, збирають GPU потужність, це обумовлено типом бізнесу проекту та характеристиками GPU. Оскільки GPU має унікальні переваги в навчанні штучного інтелекту, паралельних обчисленнях, мультимедійному відтворенні та іншому.
Хоча більшість цих проектів пов'язані з інтеграцією GPU, вимоги різних додатків до апаратних характеристик різні, тому ці апаратні забезпечення мають гетерогенні оптимізовані ядра та параметри. Ці параметри включають паралельність / послідовні залежності, пам'ять, затримку та інше. Наприклад, навантаження на рендеринг фактично більше підходить для споживчих GPU, а не для потужних GPU центру обробки даних, оскільки рендеринг вимагає високої якості, а споживчі чіпи, такі як 4090 s, підсилені RT-ядрами, спеціально оптимізовані для обчислювальних завдань відстеження променів. AI-навчання та інференс, звичайно, потребують професійних GPU. Таким чином, Render Network може збирати RTX 3090 s та 4090 s та інші споживчі GPU від роздрібних клієнтів, а IO.NET потребує більше професійних GPU, таких як H 100 s, A 100 s, для задоволення потреб початкуючих компаній в галузі штучного інтелекту.
2.2 Ринкова позиція
Щодо позиціонування проєкту, ядро bare metal, оркестровий шар та агрегаційний шар потребують вирішення різних основних проблем, оптимізації та здатності захоплення вартості.
Bare metal layer стосується збору та використання фізичних ресурсів, Orchestration layer зосереджується на плануванні та оптимізації обчислювальної потужності, шляхом найкращої оптимізації фізичного обладнання з урахуванням потреб клієнтів. Aggregation layer є загального призначення і зосереджується на інтеграції та абстракції різних ресурсів. За ланцюгом вартості, кожен проект повинен починатись з bare metal layer та зусиллями підніматись вгору.
З точки зору захоплення вартості, від рівня bare metal, рівня оркестрації до рівня агрегації, здатність захоплювати значення зростає на кожному рівні. Агрегаційний рівень може захопити найбільше значення, оскільки платформа агрегації може отримати найбільший мережевий ефект і прямо зв'язатися з найбільшою кількістю користувачів, що є входом трафіку в децентралізовану мережу, тим самим займаючи найвищу позицію захоплення вартості в усій структурі управління обчислювальним потужностями.
Відповідно, найбільшою є складність побудови платформи агрегації, проект потребує комплексного вирішення проблем технічної складності, управління гетерогенними ресурсами, надійності та масштабованості системи, досягнення мережевого ефекту, забезпечення безпеки та конфіденційності, а також складного управління експлуатацією та обслуговуванням тощо. Ці виклики не сприяють холодному старту проекту, і залежать від ситуації та часу розвитку галузі. Поки шар оркестрації ще не розвинувся достатньо для зайняття певної частки ринку, створення шару агрегації є малореалістичним.
На даний момент Aethir, Render Network, Akash Network та Gensyn належать до рівня оркестрації, вони мають на меті надавати послуги для конкретних цілей та груп клієнтів. Основною діяльністю Aethir на даний момент є рендеринг у реальному часі для хмарних ігор, а також надання деяких середовищ розробки та інструментів для клієнтів на ринку B; Основною діяльністю Render Network є відеорендеринг, Akash Network має на меті надати платформу для торгівлі, схожу на Taobao, а Gensyn зосереджена на навчанні штучного інтелекту. io.net має на меті бути рівнем агрегації, але на даний момент реалізовані функції io ще не повністю відповідають функціоналу рівня агрегації, незважаючи на те, що вже зібрано апаратне забезпечення Render Network та Filecoin, абстрагування та інтеграція апаратних ресурсів ще не завершена.
2.3 Апаратне забезпечення
Наразі не всі проекти опублікували докладні дані про мережу, і в цьому відношенні io.net explorer має найкращий інтерфейс, на якому можна побачити такі параметри, як кількість та типи GPU/CPU, ціни, розподіл, обсяг мережі, виручка від вузлів та інше. Але в кінці квітня фронтенд io.net був атакований, оскільки io не зробив Auth для PUT/POST інтерфейсу, хакери змінили дані на фронтенді. Це також викликає тривогу щодо конфіденційності та достовірності мережевих даних інших проектів.
Відносно кількості GPU і моделей, hardware, зібрані io.net як агрегуючий рівень, мають найбільшу кількість. Aethir йде на другому місці, а стан апаратного забезпечення інших проектів не так прозорий. З GPU-моделей видно, що io має як професійні GPU, такі як A100, так і споживчі GPU, такі як 4090, з різноманітними видами, що відповідає позиціонуванню io.net aggregation. io може вибрати найбільш підходящий GPU відповідно до конкретних вимог завдання. Але різні моделі і бренди GPU можуть вимагати різних драйверів та налаштувань, а також складної оптимізації програмного забезпечення, що ускладнює управління та збереження. Наразі розподіл завдань в io головним чином залежить від вибору користувача.
Aethir випустив свою власну установку для майнінгу, а в травні офіційно випустив Aethir Edge з підтримкою від Qualcomm для дослідження та розробки. Вона розбиває традиційний спосіб розгортання графічних процесорів (GPU) віддалено від користувачів і розгортає обчислювальну потужність на краю мережі. Aethir Edge разом з кластерними обчислювальними потужностями H100 надає послуги для сценаріїв штучного інтелекту (AI): вона може розгортати навчені моделі та надавати послуги розрахунків з найкращими витратами для користувачів. Ця схема наближає обчислювальні ресурси до користувачів, забезпечує швидке надання послуг і має більш вигідну вартість.
З погляду подання та попиту, на прикладі мережі Akash Network, її статистичні дані показують, що загальний обсяг CPU становить приблизно 16 k, кількість GPU - 378 штук, за потребою в оренді мережі, використання CPU та GPU становить відповідно 11.1% та 19.3%. Серед них тільки використання професійного GPU H 100 є досить високим, більшість інших моделей перебувають у стані простою. Ситуація, з якою стикаються інші мережі, в цілому схожа на Akash, загальний попит на мережі невеликий, окрім таких популярних чіпів, як A 100, H 100, більшість обчислювальної потужності перебуває у стані простою.
З погляду на конкурентноздатність цін, порівняно з великими гравцями на ринку хмарних обчислень, витрати на відміну від інших традиційних постачальників послуг не є вирішальними.
2.4 Фінансові результати
Незалежно від того, яким буде дизайн моделі токенів, здорова токеноміка повинна відповідати наступним основним умовам: 1) попит користувачів на мережу повинен відображатися у вартості токена, тобто токен може затримувати цінність; 2) всі учасники, будь то розробники, вузли, користувачі, повинні отримувати довгострокові справедливі стимули; 3) гарантувати децентралізоване управління та уникнути надмірної концентрації серед внутрішніх осіб; 4) розумний механізм інфляції та дефляції, а також період випуску токенів, щоб уникнути значних коливань вартості токена, що можуть впливати на стабільність та стійкість мережі.
Якщо грубо поділити модель токенів на BME (згорання та чеканка) та SFA (застава за доступ), тиск на скорочення токенів у цих двох режимах має різне джерело: модель BME вимагає спалювання токенів після придбання користувачем послуг, тому тиск на скорочення в системі залежить від попиту. Тоді як SFA вимагає від постачальника послуг / вузла заставити токени для отримання права надавати послуги, тому тиск на скорочення визначається подачею. Перевага BME полягає в тому, що воно більше підходить для нестандартних товарів. Проте, якщо попит в мережі недостатній, можуть виникнути проблеми зі збереженням тиску на інфляцію. Моделі токенів у різних проектах відрізняються деталями, але загалом Aethir більше нахиляється до SFA, тоді як io.net, Render Network і Akash Network більше нахиляються до BME, Gensyn поки що невідомий.
За доходами попит мережі безпосередньо відображається на загальному доході мережі (тут не обговорюється дохід майнерів, оскільки вони отримують винагороду за завдання, а також отримують субсидії від проекту). За відкритими даними io.net має найвище значення. Дохід Aethir, хоча ще не оголошений, але за відкритою інформацією вони заявили, що вже підписали угоди з багатьма клієнтами B-сторони.
За ціною монети наразі проведені лише ICO Render Network та Akash Network. Aethir та io.net також недавно випустили монету, її цінова динаміка потребує подальшого спостереження, і це не буде обговорюватися в цьому тексті. Плани Gensyn ще неясні. Загалом, на основі двох проектів, що випустили монету, та інших проектів, що випустили монету в цьому сегменті, але не розглядаються в цій статті, можна сказати, що децентралізовані мережі обчислювальної потужності демонструють дуже привабливу цінову динаміку, що відображає значний потенціал ринку та високі очікування спільноти.
2.5 Підсумок
Сектор обчислювальної потужності децентралізованих мереж розвивається дуже швидко, вже є багато проектів, які можуть надавати продукти для обслуговування клієнтів та мати певний дохід. Сектор вийшов за межі простого наративу і перейшов до етапу розвитку, де може надаватися початкове обслуговування.
Погана попит - це загальна проблема децентралізованої мережі обчислювальної потужності, довгостроковий попит клієнтів не був належним чином перевірений та розроблений. Але попитовий бік не сильно вплинув на ціну монети, декілька проектів, які вже випустили монети, показали вражаючі результати.
AI є головним наративом децентралізованої мережі обчислювальної потужності, але це не єдине підприємство. Поза застосуванням у навчанні та інференції штучного інтелекту, обчислювальна потужність може використовуватись для рендерингу в реальному часі в ігрових хмарах, хмарних телефонних служб тощо.
Ступінь гетерогенності апаратного забезпечення мережі обчислювальної потужності досить висока, якість та масштаби мережі обчислювальної потужності потребують подальшого покращення.
Для користувачів C-класу вигода вартості не є дуже очевидною. Але для користувачів B-класу, крім економії витрат, також потрібно враховувати стабільність, надійність, технічну підтримку, відповідність та юридичну підтримку послуг, а більшість проектів Web3 не занадто добре справляються з цими питаннями.
3 Заключні думки
Експоненційний ріст попиту на обчислювальну потужність, що виник в результаті вибуху штучного інтелекту, безумовно, очевидний. З 2012 року потужність, що використовується для навчання штучного інтелекту, зростає експоненційно, подвоюючись кожні 3,5 місяці (у порівнянні з законом Мура, який подвоюється кожні 18 місяців). З 2012 року попит на обчислювальну потужність збільшився більше, ніж на 300 000 разів, що перевищує зростання закону Мура в 12 разів. За прогнозами, ринок GPU очікує на річну зростаючу ставку складнення на рівні 32% на наступні п'ять років, що призведе до зростання понад 200 мільярдів доларів США. Однак AMD передбачає ще більший ріст, прогнозуючи, що ринок чіпів GPU досягне 4000 мільярдів доларів США до 2027 року.
Джерело зображення:
Оскільки різке збільшення обсягів обчислювальної роботи з штучного інтелекту та інших вантажів (наприклад, рендерінг AR/VR) викликало структурні недоліки в традиційних хмарних обчисленнях та провідних ринках обчислення. Теоретично мережа децентралізованої обчислювальної потужності може надати більш гнучке, ефективне та вигідне рішення шляхом використання розподілених вільних обчислювальних ресурсів, щоб задовольнити величезний попит ринку на обчислювальні ресурси. Отже, поєднання криптовалют та штучного інтелекту має великий ринковий потенціал, проте водночас стикається з жорсткою конкуренцією традиційних підприємств, високими бар'єрами входу та складною ринковою ситуацією. Загалом, серед усіх криптовалютних треків, децентралізована мережа обчислювальної потужності є одним з найбільш масштабних вертикальних сегментів у сфері шифрування, який має надійні перспективи отримати реальний попит.
Джерело зображень:
Майбутнє є світлим, але шлях є вибухнатим. Щоб досягти вищезазначеної візії, нам потрібно вирішити безліч проблем і викликів, узагальнюючи: Наразі, якщо просто надавати традиційні хмарні послуги, рентабельність проєкту дуже мала. З попиту боку, великі підприємства, як правило, будують власну обчислювальну потужність, водночас багато розвідувачів C-класу зазвичай вибирають хмарні послуги, чи дійсно малі та середні підприємства, які використовують ресурси мережі децентралізованої обчислювальної потужності, матимуть стійкий попит, що потребує подальшого вивчення та підтвердження. З іншого боку, штучний інтелект - це широкий ринок з високим потенціалом та простором для уяви, для більш широкого ринку майбутні постачальники децентралізованої обчислювальної потужності також повинні переходити до моделі/послуг штучного інтелекту, досліджувати більше сценаріїв використання крипто + штучного інтелекту, розширювати потенціал проєкту. Але наразі, для подальшого розвитку в галузі штучного інтелекту існує багато проблем і викликів:
Вигода в ціні не є визначною: З порівнянням даних, можна побачити, що вигода вартості децентралізованої обчислювальної потужності не була відображена. Можливі причини полягають у тому, що для спеціалізованих чіпів H 100, A 100 тощо, які мають великий попит, ринковий механізм визначає, що вартість цих пристроїв не буде дешевою. Крім того, недостатня економія масштабу, високі витрати на мережу та пропускну здатність, а також велика складність управління та експлуатації, що виникають внаслідок децентралізації мережі, додатково збільшують вартість обчислювальної потужності.
Особливості навчання штучного інтелекту: Використання децентралізованого підходу для навчання штучного інтелекту в сучасних умовах має величезні технічні перешкоди. Ці перешкоди можна легко помітити в робочому процесі GPU. При навчанні великих мовних моделей, GPU спочатку отримує пакети попередньо обробленних даних, обчислює прямий та зворотній розповсюдження інформації для генерації градієнту. Потім, різні GPU збираються разом, щоб оновити параметри моделі та забезпечити синхронізацію між всіма GPU. Цей процес повторюється доки не буде завершено навчання усіх пакетів або не буде досягнуто певної кількості епох. Цей процес включає велику кількість передачі та синхронізації даних. Наразі не існує належних відповідей на питання, які саме паралельні та синхронізаційні стратегії використовувати, як оптимізувати мережеву пропускну здатність та затримки, або як знизити вартість комунікації. Використання децентралізованої обчислювальної потужності для навчання штучного інтелекту наразі не є реалістичним.
Безпека даних та конфіденційність: Під час процесу навчання великих мовних моделей кожний етап, пов'язаний з обробкою та передачею даних, такий як розподіл даних, навчання моделей, агрегація параметрів та градієнтів, може впливати на безпеку даних та конфіденційність. Крім того, конфіденційність даних є ще важливішою для моделей конфіденційності даних. Якщо проблему конфіденційності даних не вдасться вирішити, то масштабування на стороні попиту буде неможливим.
З найреалістичнішої точки зору, децентралізована обчислювальна потужність мережі потребує одночасного врахування поточних вимог та майбутнього ринкового простору. Знайти точне позиціонування продукту та цільову аудиторію, наприклад, спочатку націлитися на проекти, які не є AI або Web3, виходячи з більш периферійних потреб, побудувати ранню базу користувачів. В той самий час безперервно досліджувати різні сценарії поєднання штучного інтелекту та криптовалют, досліджувати технологічний фронт, здійснювати трансформацію й модернізацію послуг.
Джерела
caff.com/zh/archives/17351? ref= 1554
Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Народився на межі: як децентралізована обчислювальна потужність мережі надає сили криптовалютам та штучному інтелекту?
Автори оригіналу: Джейн Доу, Чен Лі
Джерело: Youbi Capital
1 AI та криптовалюта
23 травня чіповий гігант NVIDIA опублікував фінансовий звіт за перший квартал фінансового року 2025 року. Звіт показав, що обсяг виручки NVIDIA в першому кварталі становив 26 мільярдів доларів. Зокрема, доходи від центрів обробки даних зросли на 427% в порівнянні з минулим роком і склали дивовижну суму в 22,6 мільярдів доларів. Те, що NVIDIA може самостійно врятувати фінансові показники американського фондового ринку, свідчить про вибух обчислювальної потужності глобальних технологічних компаній у змаганні за штучний інтелект. Чим вищий рівень технологічної компанії в пошуках штучного інтелекту, тим більші амбіції вона має в цьому напрямку, і відповідно, попит цих компаній на обчислювальну потужність також зростає експоненційно. За прогнозами TrendForce, до 2024 року великі американські хмарні сервіси, такі як Microsoft, Google, AWS та Meta, очікуються забрати 20,2%, 16,6%, 16% та 10,8% відповідно високопродуктивних AI-серверів у світовому попиті, загалом понад 60%.
Джерело зображень:
"Нехватка чіпів" стала одним з головних тематичних слів останніх років. З одного боку, навчання та виконання великих мовних моделей (LLM) потребує значного обчислювального потужності; і разом з ітераціями моделі, витрати на обчислювальну потужність і попит зростають експоненційно. З іншого боку, великі компанії, такі як Meta, закуповують великі обсяги чіпів, що призводить до перекосу глобальних ресурсів обчислювальної потужності на користь таких технологічних гігантів, що робить все складніше для малих підприємств отримати необхідні ресурси обчислювальної потужності. Проблема, з якою стикаються малі підприємства, не тільки походить з недостатньої пропонування чіпів, викликаної зростаючим попитом, але й з структурними суперечностями в пропонуванні. Наразі на ринку присутні значні невикористані графічні процесори (GPU), наприклад, деякі дата-центри мають значні невикористані обчислювальні потужності (використання становить лише 12% - 18%), а в криптовалютній видобутку також виникають значні невикористані ресурси обчислювальної потужності через зменшення прибутків. Хоча ці ресурси обчислювальної потужності не завжди підходять для професійних застосувань, таких як навчання штучного інтелекту, вони все ж можуть знайти велике застосування в інших галузях, таких як інференс штучного інтелекту, хмарний геймінг, хмарні телефони тощо. Це велика можливість для інтеграції та використання цих ресурсів обчислювальної потужності.
Звернувшийся до AI від crypto, після трьох років спокою на криптовалютному ринку, нарешті настав час чергового бичачого ринку, коли ціна на біткойни знову побила рекорди, і безліч мемкойнів з'явилися безперервно. ** Хоча AI і Crypto стали популярними термінами цих років, штучний інтелект і блокчейн, як дві важливі технології, здаються паралельними лініями, які досі не зустрілися в одній точці. ** На початку цього року Віталік опублікував статтю під назвою «Обіцянка та виклики застосування крипто + AI», в якій розглядаються перспективи поєднання AI та крипто. Віталік у статті згадує багато фантазій, включаючи використання технологій шифрування, таких як блокчейн та MPC, для децентралізованого навчання та інференції AI, що дозволить розкрити чорний ящик машинного навчання та зробити модель AI більш довіреною тощо. Ці побажання ще потребують багато роботи для реалізації. ** Але один з випадків, який Віталік згадує - використання економічного стимулювання крипто для дотування AI, - є важливим напрямком, який можна реалізувати в найближчий час. Децентралізована мережа обчислювальної потужності є одним з найбільш підходящих сценаріїв для AI + крипто на цьому етапі. **
2 Децентралізація обчислювальної мережі
Наразі на дорозі до розвитку децентралізованої мережі обчислювальної потужності вже існує чимало проектів. Основна логіка цих проектів схожа і може бути узагальнена як: використання токенів для стимулювання власників обчислювальної потужності для участі в мережі та надання послуг обчислювальної потужності. Ці розпорошені ресурси потужності можуть бути об'єднані в децентралізовану мережу обчислювальної потужності певного масштабу. Це дозволить не лише підвищити використання неробочої обчислювальної потужності, але й задовольнити потреби клієнтів у потужності за менші кошти, забезпечуючи виграш як покупцям, так і продавцям.
Для того щоб читачі змогли в короткі терміни отримати загальне уявлення про цю галузь, у цій статті буде здійснено деконструкцію конкретних проектів і всієї галузі з мікро- та макроперспективи з метою надання читачам аналітичного погляду на розуміння основних конкурентних переваг кожного проекту та загального розвитку галузі обчислювальної потужності децентралізованого характеру. Автор розгляне та проаналізує п'ять проектів: Aethir, io.net, Render Network, Akash Network, Gensyn, і зробить підсумок та оцінку стану проектів та розвитку галузі.
З аналітичної точки зору, якщо ми сконцентруємося на конкретній децентралізованій обчислювальній мережі, ми можемо розглянути її як чотири основні складові частини:
Якщо поглянути з пташиного польоту на всю доріжку обчислювальної потужності децентралізації, дослідження Blockworks Research надає хорошу аналітичну рамку, за якою можна розмістити проекти цієї доріжки на три різні рівні.
Джерело зображення: Youbi Capital
За допомогою цих двох аналітичних рамок ми порівняємо вибрані п'ять проєктів горизонтально і оцінимо їх з чотирьох аспектів - основний бізнес, ринкове положення, апаратне забезпечення та фінансові показники.
2.1 Основний бізнес
З логіки основного рівня, децентралізована мережа вишукування має високий рівень однорідності, тобто використовує токени для стимулювання володарів невикористаної обчислювальної потужності надавати послуги обчислювальної потужності. Виходячи з цієї основної логіки, ми можемо розуміти різницю в основному бізнесі проекту з трьох аспектів.
2.2 Ринкова позиція
Щодо позиціонування проєкту, ядро bare metal, оркестровий шар та агрегаційний шар потребують вирішення різних основних проблем, оптимізації та здатності захоплення вартості.
2.3 Апаратне забезпечення
2.4 Фінансові результати
2.5 Підсумок
3 Заключні думки
Експоненційний ріст попиту на обчислювальну потужність, що виник в результаті вибуху штучного інтелекту, безумовно, очевидний. З 2012 року потужність, що використовується для навчання штучного інтелекту, зростає експоненційно, подвоюючись кожні 3,5 місяці (у порівнянні з законом Мура, який подвоюється кожні 18 місяців). З 2012 року попит на обчислювальну потужність збільшився більше, ніж на 300 000 разів, що перевищує зростання закону Мура в 12 разів. За прогнозами, ринок GPU очікує на річну зростаючу ставку складнення на рівні 32% на наступні п'ять років, що призведе до зростання понад 200 мільярдів доларів США. Однак AMD передбачає ще більший ріст, прогнозуючи, що ринок чіпів GPU досягне 4000 мільярдів доларів США до 2027 року.
Джерело зображення:
Оскільки різке збільшення обсягів обчислювальної роботи з штучного інтелекту та інших вантажів (наприклад, рендерінг AR/VR) викликало структурні недоліки в традиційних хмарних обчисленнях та провідних ринках обчислення. Теоретично мережа децентралізованої обчислювальної потужності може надати більш гнучке, ефективне та вигідне рішення шляхом використання розподілених вільних обчислювальних ресурсів, щоб задовольнити величезний попит ринку на обчислювальні ресурси. Отже, поєднання криптовалют та штучного інтелекту має великий ринковий потенціал, проте водночас стикається з жорсткою конкуренцією традиційних підприємств, високими бар'єрами входу та складною ринковою ситуацією. Загалом, серед усіх криптовалютних треків, децентралізована мережа обчислювальної потужності є одним з найбільш масштабних вертикальних сегментів у сфері шифрування, який має надійні перспективи отримати реальний попит.
Джерело зображень:
Майбутнє є світлим, але шлях є вибухнатим. Щоб досягти вищезазначеної візії, нам потрібно вирішити безліч проблем і викликів, узагальнюючи: Наразі, якщо просто надавати традиційні хмарні послуги, рентабельність проєкту дуже мала. З попиту боку, великі підприємства, як правило, будують власну обчислювальну потужність, водночас багато розвідувачів C-класу зазвичай вибирають хмарні послуги, чи дійсно малі та середні підприємства, які використовують ресурси мережі децентралізованої обчислювальної потужності, матимуть стійкий попит, що потребує подальшого вивчення та підтвердження. З іншого боку, штучний інтелект - це широкий ринок з високим потенціалом та простором для уяви, для більш широкого ринку майбутні постачальники децентралізованої обчислювальної потужності також повинні переходити до моделі/послуг штучного інтелекту, досліджувати більше сценаріїв використання крипто + штучного інтелекту, розширювати потенціал проєкту. Але наразі, для подальшого розвитку в галузі штучного інтелекту існує багато проблем і викликів:
З найреалістичнішої точки зору, децентралізована обчислювальна потужність мережі потребує одночасного врахування поточних вимог та майбутнього ринкового простору. Знайти точне позиціонування продукту та цільову аудиторію, наприклад, спочатку націлитися на проекти, які не є AI або Web3, виходячи з більш периферійних потреб, побудувати ранню базу користувачів. В той самий час безперервно досліджувати різні сценарії поєднання штучного інтелекту та криптовалют, досліджувати технологічний фронт, здійснювати трансформацію й модернізацію послуг.
Джерела
caff.com/zh/archives/17351? ref= 1554