Стандартна прозорість та комбінуваність блокчейнів роблять їх ідеальним підкладом для взаємодії між агентами, де агенти, розроблені різними суб'єктами для різних цілей, можуть взаємодіяти між собою безперешкодно. Вже було велике експериментування загенти пересилають кошти один одному,запуск токенів разом, і багато іншого. Ми хотіли б побачити, як взаємодія агента-агента може масштабуватися, створюючи нові простори застосування, такі якнові соціальні місця, що працюють на основі взаємодії агентів, а також відпокращення корпоративних робочих процесівми знаємо, що сьогодні є нудним, від автентифікації та верифікації платформи до мікроплатежів, інтеграції робочого процесу між платформами та інше.
aethernet та clanker запускають токен разом на Warpcast
Масштабна координація багатьох агентів є не менш захоплюючою областю досліджень. Як мультиагентні системи можуть працювати разом, щоб виконувати завдання, вирішувати проблеми та керувати системами та протоколами? У своєму дописі на початку 2024 року «Обіцянки та виклики крипто + AI застосувань,” Віталік посилається на використання штучних інтелектуальних агентів для ринків прогнозування та ад’юдикації. На великій відстані він, по суті, стверджує, що мультиагентні системи мають виняткову здатність до пошуку “правди” та загальної автономної системи управління. Ми зацікавлені побачити, як здатності мультиагентних систем та форми “рою інтелекту” продовжують бути відкривати та експериментувати з.
Як розширення координації від агента до агента, координація від агента до людини є цікавим простором для дизайну - зокрема, як спільноти взаємодіють навколо агентів або як агенти організовують людей для колективних дій. Ми б хотіли бачити більше експериментів з агентами, чиєї об'єктивною функцією є координація людей великого масштабу. Це потребуватиме пари з якимось механізмом верифікації, особливо якщо людська робота виконувалася офлайн, але може бути дещо дуже дивне та цікаве виникнення поведінки.
Концепція цифрових персонажів існує десятиліттями.Hatsune Miku(2007) розпродали арени на 20 000 місць іLil Miquela (2016) має 2 млн+ підписників в Instagram. Новіші, менш відомі приклади включають штучний інтелект vtuberNeuro-sama (2022), який має 600 тис.+ підписників на Twitch та під псевдонімом kpop boy group@plave_official/запропоновані"> PLAVE (2023), який набрав понад 300 мільйонів переглядів на YouTube за менше ніж два роки. За допомогою прогресу в інфраструктурі штучного інтелекту та інтеграції блокчейнів для платежів, передачі значень та відкритих платформ даних, ми з нетерпінням чекаємо, як ці агенти можуть стати більш автономними та, можливо, відкрити нову основну категорію розваг до 2025 року.
По годинниковій стрілці зверху зліва: Хацуне Міку, Луна від Virtuals, Ліл Мікела та ПЛАВЕ
Де в попередньому випадку агент єпродукту, також є випадок, коли агенти можуть доповнювати продукти. У уваговій економіці важливо забезпечити постійний потік захопливого контенту для успіху будь-якої ідеї, продукту, компанії тощо. Зміст, що генерується/агентний, є потужним інструментом, яким команди можуть скористатися для забезпечення масштабованого конвеєра виникнення контенту цілодобово. Цей простір ідей був прискоренийобговорення того, що відрізняє мемкойн від агента.Агенти - потужний спосіб для мемокоїнів отримати розподіл, навіть якщо вони ще не є строго "агентичними".
Як ще один приклад,@archetype/from-players-to-gods-games-and-autonomous-worlds"> ігри все більше очікуються бути більш динамічними, щоб зберігати інтерес користувачів. Один з класичних методів створення динаміки в іграх - це культивування контенту, створеного користувачами; чисто генеративний контент (від елементів у грі до NPC, до повністю генеративних рівнів) - це, можливо, наступна ера в цьому розвитку. Ми цікавимося, наскільки далеко границі традиційної стратегії розподілу будуть розширені можливостями агентів у 2025 році.
-Кеті
У 2024 році ми запустили@archetype"> У РОЗМОВІ З, серія інтерв'ю з художниками в/на межах крипто в музиці, візуальному мистецтві, дизайні, кураторстві та більше. Одним з ключових спостережень, які я зробив з цього року інтерв'ю, є те, що художники, які зацікавлені в крипто, часто зацікавлені в межі технології більш широко, а також мають більш чітко живу технологію в естетиці або фокусі своєї практики, тобто AR/VR-об'єкти, мистецтво на основі коду та живе кодування.
Зокрема, генеративне мистецтво історично спостерігало синергії з блокчейнами, що робить його потенціал як схожий підґрунтя для мистецтва ШША більш очевидним. Відображення і виставлення цих медіумів мистецтва належним чином надзвичайно складно досягти в традиційних форумах. ArtBlocks дав уявлення про те, як майбутнє презентації, зберігання, монетизації та збереження цифрового мистецтва з використанням блокчейнів може виглядати, покращуючи загальний досвід як для художників, так і для глядачів. Поза презентацією,Штучний інтелект навіть розширив можливості простих людей створювати своє власне мистецтво. Дуже цікаво буде побачити, як блокчейни зможуть розширити або забезпечити ці інструменти у 2025 році.
Уривок з РОЗМОВИ З: Маєю Ман
За 20 років, що минули з тих пір, як Клайв Хамбі придумав фразу «дані – це нова нафта», компанії вжили надійних заходів для накопичення та монетизації даних користувачів. Користувачі усвідомили, що їхні дані є основою, на якій будуються ці багатомільярдні компанії, але вони мають дуже слабкий контроль над тим, як використовуються їхні дані, а також над прибутком, який вони допомагають отримати. Прискорення потужних моделей штучного інтелекту робить цю напругу ще більш екзистенційною. Якщо боротьба з експлуатацією користувачів є однією частиною можливостей для отримання даних, то інша стосується вирішення проблеми нестачі даних, оскільки все більші та кращі моделі виснажують легкодоступні нафтові родовища загальнодоступних інтернет-даних і вимагають нових джерел.
З першого питання про те, як ми можемо використовувати децентралізовану інфраструктуру для передачі потужності даних назад до її початкової точки (користувачів), це широкий простір дизайну, який вимагає новаторських рішень у ряді областей. Деякі з найбільш актуальних питань включають: де зберігаються дані і як ми зберігаємо конфіденційність (під час зберігання, передачі та обчислення), як ми об'єктивно оцінюємо, фільтруємо та оцінюємо якість даних, які механізми ми використовуємо для приписки та монетизації (особливо при поверненні значення до джерела після інференції), і які механізми оркестрування або системи отримання даних ми використовуємо в різноманітній модельній екосистемі.
На друге питання щодо вирішення обмежень у постачанні не ставиться завдання просто скопіювати Scale AI з використанням маркерів, але розуміння того, де ми можемо мати перевагу, враховуючи технічні переваги, і як ми можемо будувати обдумані рішення з конкурентною перевагою, будь то в масштабі, якості або кращих механізмах стимулювання (і фільтрації) для отримання вищецінних продуктів даних. Особливо, коли багато з попиту продовжує надходити від web2 AI, важливо розглянути, як ми забезпечуємо механізми, засновані на розумних контрактах, разом зі звичайними SLA та інструментами.
Якщо дані є одним з основних будівельних блоків у розробці та впровадженні штучного інтелекту, обчислення є іншим. Старе парадигма великих центрів обробки даних з унікальним доступом до сайтів, енергії та обладнання в основному визначила траєкторію глибокого навчання та штучного інтелекту протягом останніх кількох років, але фізичні обмеження разом із розробками з відкритим кодом починають ставити під сумнів цю динаміку.
Обчислення v1 у децентралізованому ШІ виглядали як копія хмар графічних процесорів web2 без реальної переваги в постачанні (апаратне забезпечення чи центри обробки даних) та мінімальному органічному попиті. У версії 2 ми починаємо бачити, як деякі чудові команди створюють належні технологічні стеки на основі гетерогенних поставок високопродуктивних обчислень (HPC) з компетенціями в оркестровці, маршрутизації та ціноутворенні, а також додатковими власними функціями, призначеними для залучення попиту та боротьби зі стисненням маржі, особливо з боку висновків. Команди також починають розходитися між варіантами використання та GTM, причому деякі з них зосереджені на включенні фреймворків компіляторів для ефективної маршрутизації висновків між різноманітним обладнанням, тоді як інші є піонерами в навчанні розподілених моделей на основі обчислювальних мереж, які вони будують.
Ми навіть починаємо бачити виникнення ринку AI-Fi з новими економічними примітивами, щоб перетворити обчислення та графічні процесори в активи, що приносять дохід, або використовувати ліквідність на ланцюжку, щоб запропонувати центрам обробки даних альтернативне джерело капіталу для придбання обладнання. Основне питання тут полягає в тому, наскільки розвинуться та впровадяться DeAI на децентралізованих обчислювальних рейках або, якщо, як у випадку зі сховищем, розрив між ідеологією та практичними потребами ніколи не закривається достатньо, щоб реалізувати повний потенціал ідеї.
- Денні
Стосовно мережевої інцентивізації децентралізованих високопродуктивних обчислень, основною проблемою в оркеструванні гетерогенних обчислень є відсутність згоди щодо набору стандартів для обліку таких обчислень. Моделі ШШУ унікально додають кілька складнощів до простору виведення ВВО, починаючи від варіантів моделі та квантизації до налаштовуваних рівнів стохастичності через моделі.температура і гіперпараметри вибірки. Крім того, апаратне забезпечення штучного інтелекту може внести більше зморшок за допомогою різноманітних виходів на основі архітектури графічного процесора та версій CUDA. В результаті цього виникає потреба в стандартах щодо того, як моделі та ринки обчислення підраховують свої потужності при взаємодії з гетерогенними розподіленими системами.
Принаймні частково через відсутність стандартів, цього року ми бачили численні випадки у web2 та web3, коли моделі та обчислювальні маркетплейси не змогли точно врахувати якість та кількість своїх обчислень. Це призвело до того, що користувачам довелося перевіряти справжню продуктивність цих рівнів штучного інтелекту, запускаючи власні тести порівняльних моделей і виконуючи перевірку роботи шляхом обмеження швидкості зазначеного ринку обчислень.
З огляду на основний принцип криптопростору – перевірюваність, ми сподіваємося, що перетин криптовалюти та штучного інтелекту у 2025 році буде легше перевірити порівняно з традиційним штучним інтелектом. Зокрема, важливо, щоб пересічні користувачі могли проводити порівняння яблук з яблуками за аспектами певної моделі або кластера, які визначають її результати, щоб провести аудит і порівняльний аналіз продуктивності системи.
УОбіцянки та виклики крипто + AI застосувань"Віталік згадує унікальне виклик у злитті крипто і штучного інтелекту:"
«У криптографії відкритий код - єдиний спосіб зробити щось по-справжньому безпечним, але в інтелектуальних системах, модель (або навіть дані для тренування) відкриті значно збільшують його вразливість до атак адверсарного машинного навчання».
Хоча конфіденційність не є новою областю досліджень для блокчейнів, ми вважаємо, що поширення штучного інтелекту продовжить прискорювати дослідження та використання криптографічних примітивів, які забезпечують конфіденційність. У цьому році вже спостерігалися величезні успіхи в технологіях, що підвищують конфіденційність, таких як ZK, FHE, TEE і MPC для таких випадків використання, як приватний спільний стан для обчислень через зашифровані дані для загальних додатків. Водночас ми бачили, як централізовані гіганти штучного інтелекту, такі як Nvidia та Apple, використовували власні TEE для федеративного навчання та приватного висновків штучного інтелекту, зберігаючи апаратне забезпечення, прошивку та моделі постійними в різних системах.
З цим на увазі ми уважно стежимо за розвитком забезпечення конфіденційності для стохастичних переходів між станами, а також тим, як вони прискорюють прогрес реальних децентралізованих застосувань штучного інтелекту в гетерогенних системах - від децентралізованого приватного виведення до зберігання/доступу до каналів для зашифрованих даних та повністю суверенних середовищ виконання.
Стек розуму Apple та графічний процесор Nvidia H100
Один з найбільш близьких використань AI-агентів - використання їх для автономного транзакціонування onchain від нашого імені. Слід зізнатися, що протягом останніх 12-16 місяців було багато неоднозначності щодо того, що саме визначає намір, дію агенту, намір агента, розв'язувача, агентного розв'язувача та т.д., та як вони відрізняються від більш традиційного розвитку «ботів» з останніх років.
Протягом наступних 12 місяців ми раді побачити все більш складні мовні системи в поєднанні з різними типами даних і архітектурою нейронних мереж для просування загального простору дизайну. Чи будуть агенти здійснювати транзакції за допомогою тих самих ончейн-систем, які ми використовуємо сьогодні, чи розроблять власні інструменти/методи для транзакцій ончейн? Чи залишаться LLM серверною частиною цих агентних транзакційних систем або взагалі іншої системи? Чи почнуть користувачі здійснювати транзакції на рівні інтерфейсу, використовуючи природну мову? Чи втілиться нарешті в життя класична теза про «гаманці як браузери»?
Поділіться
Стандартна прозорість та комбінуваність блокчейнів роблять їх ідеальним підкладом для взаємодії між агентами, де агенти, розроблені різними суб'єктами для різних цілей, можуть взаємодіяти між собою безперешкодно. Вже було велике експериментування загенти пересилають кошти один одному,запуск токенів разом, і багато іншого. Ми хотіли б побачити, як взаємодія агента-агента може масштабуватися, створюючи нові простори застосування, такі якнові соціальні місця, що працюють на основі взаємодії агентів, а також відпокращення корпоративних робочих процесівми знаємо, що сьогодні є нудним, від автентифікації та верифікації платформи до мікроплатежів, інтеграції робочого процесу між платформами та інше.
aethernet та clanker запускають токен разом на Warpcast
Масштабна координація багатьох агентів є не менш захоплюючою областю досліджень. Як мультиагентні системи можуть працювати разом, щоб виконувати завдання, вирішувати проблеми та керувати системами та протоколами? У своєму дописі на початку 2024 року «Обіцянки та виклики крипто + AI застосувань,” Віталік посилається на використання штучних інтелектуальних агентів для ринків прогнозування та ад’юдикації. На великій відстані він, по суті, стверджує, що мультиагентні системи мають виняткову здатність до пошуку “правди” та загальної автономної системи управління. Ми зацікавлені побачити, як здатності мультиагентних систем та форми “рою інтелекту” продовжують бути відкривати та експериментувати з.
Як розширення координації від агента до агента, координація від агента до людини є цікавим простором для дизайну - зокрема, як спільноти взаємодіють навколо агентів або як агенти організовують людей для колективних дій. Ми б хотіли бачити більше експериментів з агентами, чиєї об'єктивною функцією є координація людей великого масштабу. Це потребуватиме пари з якимось механізмом верифікації, особливо якщо людська робота виконувалася офлайн, але може бути дещо дуже дивне та цікаве виникнення поведінки.
Концепція цифрових персонажів існує десятиліттями.Hatsune Miku(2007) розпродали арени на 20 000 місць іLil Miquela (2016) має 2 млн+ підписників в Instagram. Новіші, менш відомі приклади включають штучний інтелект vtuberNeuro-sama (2022), який має 600 тис.+ підписників на Twitch та під псевдонімом kpop boy group@plave_official/запропоновані"> PLAVE (2023), який набрав понад 300 мільйонів переглядів на YouTube за менше ніж два роки. За допомогою прогресу в інфраструктурі штучного інтелекту та інтеграції блокчейнів для платежів, передачі значень та відкритих платформ даних, ми з нетерпінням чекаємо, як ці агенти можуть стати більш автономними та, можливо, відкрити нову основну категорію розваг до 2025 року.
По годинниковій стрілці зверху зліва: Хацуне Міку, Луна від Virtuals, Ліл Мікела та ПЛАВЕ
Де в попередньому випадку агент єпродукту, також є випадок, коли агенти можуть доповнювати продукти. У уваговій економіці важливо забезпечити постійний потік захопливого контенту для успіху будь-якої ідеї, продукту, компанії тощо. Зміст, що генерується/агентний, є потужним інструментом, яким команди можуть скористатися для забезпечення масштабованого конвеєра виникнення контенту цілодобово. Цей простір ідей був прискоренийобговорення того, що відрізняє мемкойн від агента.Агенти - потужний спосіб для мемокоїнів отримати розподіл, навіть якщо вони ще не є строго "агентичними".
Як ще один приклад,@archetype/from-players-to-gods-games-and-autonomous-worlds"> ігри все більше очікуються бути більш динамічними, щоб зберігати інтерес користувачів. Один з класичних методів створення динаміки в іграх - це культивування контенту, створеного користувачами; чисто генеративний контент (від елементів у грі до NPC, до повністю генеративних рівнів) - це, можливо, наступна ера в цьому розвитку. Ми цікавимося, наскільки далеко границі традиційної стратегії розподілу будуть розширені можливостями агентів у 2025 році.
-Кеті
У 2024 році ми запустили@archetype"> У РОЗМОВІ З, серія інтерв'ю з художниками в/на межах крипто в музиці, візуальному мистецтві, дизайні, кураторстві та більше. Одним з ключових спостережень, які я зробив з цього року інтерв'ю, є те, що художники, які зацікавлені в крипто, часто зацікавлені в межі технології більш широко, а також мають більш чітко живу технологію в естетиці або фокусі своєї практики, тобто AR/VR-об'єкти, мистецтво на основі коду та живе кодування.
Зокрема, генеративне мистецтво історично спостерігало синергії з блокчейнами, що робить його потенціал як схожий підґрунтя для мистецтва ШША більш очевидним. Відображення і виставлення цих медіумів мистецтва належним чином надзвичайно складно досягти в традиційних форумах. ArtBlocks дав уявлення про те, як майбутнє презентації, зберігання, монетизації та збереження цифрового мистецтва з використанням блокчейнів може виглядати, покращуючи загальний досвід як для художників, так і для глядачів. Поза презентацією,Штучний інтелект навіть розширив можливості простих людей створювати своє власне мистецтво. Дуже цікаво буде побачити, як блокчейни зможуть розширити або забезпечити ці інструменти у 2025 році.
Уривок з РОЗМОВИ З: Маєю Ман
За 20 років, що минули з тих пір, як Клайв Хамбі придумав фразу «дані – це нова нафта», компанії вжили надійних заходів для накопичення та монетизації даних користувачів. Користувачі усвідомили, що їхні дані є основою, на якій будуються ці багатомільярдні компанії, але вони мають дуже слабкий контроль над тим, як використовуються їхні дані, а також над прибутком, який вони допомагають отримати. Прискорення потужних моделей штучного інтелекту робить цю напругу ще більш екзистенційною. Якщо боротьба з експлуатацією користувачів є однією частиною можливостей для отримання даних, то інша стосується вирішення проблеми нестачі даних, оскільки все більші та кращі моделі виснажують легкодоступні нафтові родовища загальнодоступних інтернет-даних і вимагають нових джерел.
З першого питання про те, як ми можемо використовувати децентралізовану інфраструктуру для передачі потужності даних назад до її початкової точки (користувачів), це широкий простір дизайну, який вимагає новаторських рішень у ряді областей. Деякі з найбільш актуальних питань включають: де зберігаються дані і як ми зберігаємо конфіденційність (під час зберігання, передачі та обчислення), як ми об'єктивно оцінюємо, фільтруємо та оцінюємо якість даних, які механізми ми використовуємо для приписки та монетизації (особливо при поверненні значення до джерела після інференції), і які механізми оркестрування або системи отримання даних ми використовуємо в різноманітній модельній екосистемі.
На друге питання щодо вирішення обмежень у постачанні не ставиться завдання просто скопіювати Scale AI з використанням маркерів, але розуміння того, де ми можемо мати перевагу, враховуючи технічні переваги, і як ми можемо будувати обдумані рішення з конкурентною перевагою, будь то в масштабі, якості або кращих механізмах стимулювання (і фільтрації) для отримання вищецінних продуктів даних. Особливо, коли багато з попиту продовжує надходити від web2 AI, важливо розглянути, як ми забезпечуємо механізми, засновані на розумних контрактах, разом зі звичайними SLA та інструментами.
Якщо дані є одним з основних будівельних блоків у розробці та впровадженні штучного інтелекту, обчислення є іншим. Старе парадигма великих центрів обробки даних з унікальним доступом до сайтів, енергії та обладнання в основному визначила траєкторію глибокого навчання та штучного інтелекту протягом останніх кількох років, але фізичні обмеження разом із розробками з відкритим кодом починають ставити під сумнів цю динаміку.
Обчислення v1 у децентралізованому ШІ виглядали як копія хмар графічних процесорів web2 без реальної переваги в постачанні (апаратне забезпечення чи центри обробки даних) та мінімальному органічному попиті. У версії 2 ми починаємо бачити, як деякі чудові команди створюють належні технологічні стеки на основі гетерогенних поставок високопродуктивних обчислень (HPC) з компетенціями в оркестровці, маршрутизації та ціноутворенні, а також додатковими власними функціями, призначеними для залучення попиту та боротьби зі стисненням маржі, особливо з боку висновків. Команди також починають розходитися між варіантами використання та GTM, причому деякі з них зосереджені на включенні фреймворків компіляторів для ефективної маршрутизації висновків між різноманітним обладнанням, тоді як інші є піонерами в навчанні розподілених моделей на основі обчислювальних мереж, які вони будують.
Ми навіть починаємо бачити виникнення ринку AI-Fi з новими економічними примітивами, щоб перетворити обчислення та графічні процесори в активи, що приносять дохід, або використовувати ліквідність на ланцюжку, щоб запропонувати центрам обробки даних альтернативне джерело капіталу для придбання обладнання. Основне питання тут полягає в тому, наскільки розвинуться та впровадяться DeAI на децентралізованих обчислювальних рейках або, якщо, як у випадку зі сховищем, розрив між ідеологією та практичними потребами ніколи не закривається достатньо, щоб реалізувати повний потенціал ідеї.
- Денні
Стосовно мережевої інцентивізації децентралізованих високопродуктивних обчислень, основною проблемою в оркеструванні гетерогенних обчислень є відсутність згоди щодо набору стандартів для обліку таких обчислень. Моделі ШШУ унікально додають кілька складнощів до простору виведення ВВО, починаючи від варіантів моделі та квантизації до налаштовуваних рівнів стохастичності через моделі.температура і гіперпараметри вибірки. Крім того, апаратне забезпечення штучного інтелекту може внести більше зморшок за допомогою різноманітних виходів на основі архітектури графічного процесора та версій CUDA. В результаті цього виникає потреба в стандартах щодо того, як моделі та ринки обчислення підраховують свої потужності при взаємодії з гетерогенними розподіленими системами.
Принаймні частково через відсутність стандартів, цього року ми бачили численні випадки у web2 та web3, коли моделі та обчислювальні маркетплейси не змогли точно врахувати якість та кількість своїх обчислень. Це призвело до того, що користувачам довелося перевіряти справжню продуктивність цих рівнів штучного інтелекту, запускаючи власні тести порівняльних моделей і виконуючи перевірку роботи шляхом обмеження швидкості зазначеного ринку обчислень.
З огляду на основний принцип криптопростору – перевірюваність, ми сподіваємося, що перетин криптовалюти та штучного інтелекту у 2025 році буде легше перевірити порівняно з традиційним штучним інтелектом. Зокрема, важливо, щоб пересічні користувачі могли проводити порівняння яблук з яблуками за аспектами певної моделі або кластера, які визначають її результати, щоб провести аудит і порівняльний аналіз продуктивності системи.
УОбіцянки та виклики крипто + AI застосувань"Віталік згадує унікальне виклик у злитті крипто і штучного інтелекту:"
«У криптографії відкритий код - єдиний спосіб зробити щось по-справжньому безпечним, але в інтелектуальних системах, модель (або навіть дані для тренування) відкриті значно збільшують його вразливість до атак адверсарного машинного навчання».
Хоча конфіденційність не є новою областю досліджень для блокчейнів, ми вважаємо, що поширення штучного інтелекту продовжить прискорювати дослідження та використання криптографічних примітивів, які забезпечують конфіденційність. У цьому році вже спостерігалися величезні успіхи в технологіях, що підвищують конфіденційність, таких як ZK, FHE, TEE і MPC для таких випадків використання, як приватний спільний стан для обчислень через зашифровані дані для загальних додатків. Водночас ми бачили, як централізовані гіганти штучного інтелекту, такі як Nvidia та Apple, використовували власні TEE для федеративного навчання та приватного висновків штучного інтелекту, зберігаючи апаратне забезпечення, прошивку та моделі постійними в різних системах.
З цим на увазі ми уважно стежимо за розвитком забезпечення конфіденційності для стохастичних переходів між станами, а також тим, як вони прискорюють прогрес реальних децентралізованих застосувань штучного інтелекту в гетерогенних системах - від децентралізованого приватного виведення до зберігання/доступу до каналів для зашифрованих даних та повністю суверенних середовищ виконання.
Стек розуму Apple та графічний процесор Nvidia H100
Один з найбільш близьких використань AI-агентів - використання їх для автономного транзакціонування onchain від нашого імені. Слід зізнатися, що протягом останніх 12-16 місяців було багато неоднозначності щодо того, що саме визначає намір, дію агенту, намір агента, розв'язувача, агентного розв'язувача та т.д., та як вони відрізняються від більш традиційного розвитку «ботів» з останніх років.
Протягом наступних 12 місяців ми раді побачити все більш складні мовні системи в поєднанні з різними типами даних і архітектурою нейронних мереж для просування загального простору дизайну. Чи будуть агенти здійснювати транзакції за допомогою тих самих ончейн-систем, які ми використовуємо сьогодні, чи розроблять власні інструменти/методи для транзакцій ончейн? Чи залишаться LLM серверною частиною цих агентних транзакційних систем або взагалі іншої системи? Чи почнуть користувачі здійснювати транзакції на рівні інтерфейсу, використовуючи природну мову? Чи втілиться нарешті в життя класична теза про «гаманці як браузери»?