Благодаря прозрачности и комбинируемости блокчейнов они становятся идеальной основой для взаимодействия агентов, где агенты, разработанные различными субъектами для различных целей, могут взаимодействовать друг с другом без проблем. Уже были проведены большие экспериментыагенты отправляют средства друг другу,запуск токенов вместе, и многое другое. Мы бы хотели увидеть, как взаимодействие агента с агентом может масштабироваться, создавая совершенно новые пространства приложений, такие какновые социальные места, создаваемые взаимодействием агентов, а также отулучшение рабочих процессов предприятиямы знаем, что сегодня может быть утомительным, начиная от аутентификации и проверки платформы до микроплатежей, интеграции рабочих процессов между платформами и многое другое.
aethernet и clanker запускают токен вместе на Warpcast
Координация мультиагентов в масштабе - это также увлекательная область исследований. Как могут мультиагентные системы работать вместе для выполнения задач, решения проблем и управления системами и протоколами? В своем посте в начале 2024 года, " Обещание и вызовы крипто + приложения искусственного интеллектаВиталик упоминает использование искусственного интеллекта для предсказательных рынков и разрешения споров. На большом масштабе он предполагает, что мультиагентные системы обладают удивительной способностью к «правде»-нахождению и в целом автономным системам управления. Нас интересует, как способности мультиагентных систем и формы «роя интеллекта» продолжают открываться и экспериментироваться.
Как расширение координации агент-агент, координация агент-человек представляет собой интересное пространство для проектирования - конкретно, как сообщества взаимодействуют с агентами или как агенты организуют людей для совместных действий. Мы бы хотели видеть больше экспериментов с агентами, целевая функция которых включает координацию большого числа людей. Это потребует сопряжения с некоторым механизмом проверки, особенно если работа с людьми была выполнена вне цепи блоков, но могут возникнуть очень странное и интересное эмерджентное поведение.
Концепция цифровых персонажей существует десятилетиями.Хацуне Мику (2007) был распродан на арене вместимостью 20 000 мест иLil Miquela (2016) имеет более 2 млн подписчиков в Instagram. Среди более новых и малоизвестных примеров - AI-втуберNeuro-сама (2022) у которого более 600 тыс. подписчиков на Twitch и псевдонимная к-поп группа парней@plave_official/featured"> PLAVE (2023), который набрал более 300 млн просмотров на YouTube менее чем за два года. С учетом достижений в области инфраструктуры искусственного интеллекта и интеграции блокчейнов для платежей, передачи стоимости и открытых платформ данных, мы с нетерпением ждем, когда эти агенты смогут стать более автономными и, возможно, откроют новую основную категорию развлечений в 2025 году.
По часовой стрелке сверху слева: Хацунэ Мику, Луна от Виртуалс, Лил Микела и ПЛАВЕ
Где в предыдущем случае агент этопродукт, также существует случай, когда агенты могут дополнять продукты. В экономике внимания поддержание постоянного потока убедительного контента является ключевым фактором для успеха любой идеи, продукта, компании и т. д. Генеративный/агентичный контент - мощный инструмент, который команды могут использовать, чтобы обеспечить масштабируемую, круглосуточную систему формирования контента. Это пространство идей было ускоренообсуждение того, что отличает мемкойн от агента.Агенты - мощный способ для мемокоинов получить распространение, даже если они еще не совсем «агентичны».
Как еще один пример,@archetypeОт игроков к богам: игры и автономные миры"> игры все чаще ожидаются более динамичными, чтобы поддерживать вовлеченность пользователей. Один из классических методов создания динамики в играх - развитие контента, создаваемого пользователями; чисто генеративный контент (от игровых предметов до NPC и полностью генерируемых уровней) возможно, является следующей эрой этой эволюции. Нас интересует, насколько далеко границы традиционной стратегии распространения будут расширены возможностями агентов в 2025 году.
В 2024 году мы запустили@архетип"> В РАЗГОВОРЕ С, серия интервью с художниками в/на краю крипто в музыке, визуальном искусстве, дизайне, кураторстве и не только. Одним из ключевых наблюдений, которые я сделал из интервью этого года, было то, что художники, заинтересованные в крипто, часто заинтересованы в передовых технологиях более широко, а также в том, чтобы эта технология жила более прочно в эстетике или фокусе их практики, т.е. объекты AR/VR, искусство на основе кода и livecoding.
Особенно генеративное искусство и исторически находило синергию с блокчейнами, что делает его потенциал как аналогичного субстрата для AI искусства более ясным. Показать и правильно отобразить эти средства искусства крайне сложно в традиционных форумах. ArtBlocks дал представление о том, как может выглядеть будущее цифровой презентации, хранения, монетизации и сохранения искусства, используя блокчейны, улучшая общий опыт как для художников, так и для зрителей. Помимо презентации,Искусство AI даже расширило возможности обычных людей создавать свое собственное искусство. Будет очень интересно увидеть, как блокчейны смогут расширить или усилить эти инструменты в 2025 году.
-Кэти
Фрагмент из беседы с Майей Ман
За 20 лет с тех пор, как Клайв Хамби придумал фразу «данные - новая нефть», компании предприняли решительные меры по накоплению и монетизации пользовательских данных. Пользователи осознали, что их данные являются основой, на которой строятся эти многомиллиардные компании, однако у них очень мало контроля над тем, как их данные используются, и они не участвуют в прибыли, которую они помогают генерировать. Ускорение мощных моделей искусственного интеллекта делает эту напряженность еще более существенной. Если борьба с эксплуатацией пользователей составляет одну часть возможности использования данных, другая часть касается решения дефицита предложения данных, поскольку все более крупные и лучшие модели высасывают легкодоступные нефтяные месторождения общедоступных интернет-данных и требуют новых источников.
Что касается первого вопроса о том, как мы можем использовать децентрализованную инфраструктуру для передачи данных обратно в точку их происхождения (пользователям), то это обширное пространство для проектирования, которое требует новых решений в целом ряде областей. Вот некоторые из наиболее актуальных вопросов: где хранятся данные и как мы сохраняем конфиденциальность (во время хранения, передачи и вычислений), как мы объективно сравниваем, фильтруем и оцениваем качество данных, какие механизмы мы используем для атрибуции и монетизации (особенно при привязке ценности к источнику после вывода), а также какие системы оркестровки или поиска данных мы используем в разнообразной экосистеме моделей.
При решении вопроса о преодолении ограничений поставок не стоит просто пытаться воссоздать Scale AI с помощью токенов, а понимать, где у нас может быть преимущество благодаря техническим форсированным ветрам и как мы можем разработать продуманные решения с конкурентным преимуществом, будь то масштаб, качество или лучшие механизмы поощрения (и фильтрации) для создания более ценного продукта данных. Особенно учитывая, что большая часть спроса продолжает поступать из web2 AI, важно продумать, как мы можем соединить механизмы, обеспечиваемые смарт-контрактами, с обычными SLA и инструментами.
Если данные являются одним из фундаментальных строительных блоков в разработке и внедрении искусственного интеллекта, то вычисление является другим. Традиционная парадигма больших центров данных с уникальным доступом к сайтам, энергии и оборудованию в значительной степени определила траекторию глубокого обучения и искусственного интеллекта за последние несколько лет, но физические ограничения наряду с развитием открытых исходных кодов начинают вызывать сомнения в этой динамике.
v1 вычисления в децентрализованном искусственном интеллекте выглядела как реплика облачных вычислений GPU web2 без реального преимущества в снабжении (аппаратного обеспечения или дата-центров) и минимального органического спроса. В v2 мы начинаем видеть некоторые замечательные команды, строящие правильные технологические стеки на основе гетерогенных поставок высокопроизводительных вычислений (HPC) с компетенциями в области оркестрации, маршрутизации и ценообразования, а также с дополнительными собственными функциями, разработанными для привлечения спроса и борьбы с сжатием маржи, особенно в области вывода. Команды также начинают расходиться по случаям использования и GTM, некоторые из них сосредоточены на включении компиляторных фреймворков для эффективной маршрутизации вывода на различном оборудовании, в то время как другие пионерируют распределенные фреймворки обучения моделей поверх собственных вычислительных сетей, которые они создают.
Мы даже начинаем видеть появление рынка искусственного интеллекта с новыми экономическими примитивами, превращающими вычисления и графические процессоры в активы, приносящие доход, или использующими ончейн-ликвидность для предложения центрам обработки данных альтернативного источника капитала для приобретения оборудования. Основной вопрос здесь заключается в том, насколько будет развит и внедрен децентрализованный искусственный интеллект на вычислительных рельсах, или, если, как и с хранением, разрыв между идеологией и практическими потребностями никогда не закрывается достаточно, чтобы реализовать полный потенциал идеи.
Что касается стимулирования сетей к децентрализованным высокопроизводительным вычислениям, то основной проблемой при оркестрации гетерогенных вычислений является отсутствие согласованного набора стандартов для учета указанных вычислений. Модели ИИ уникальным образом добавляют несколько морщин в выходное пространство высокопроизводительных вычислений, начиная от вариантов модели и квантования и заканчивая настраиваемыми уровнями стохастичности с помощьютемператураи выборка гиперпараметров. Кроме того, аппаратное обеспечение ИИ может внести больше изменений через разнообразные выходы на основе архитектур GPU и версийCUDA. В конечном итоге это приводит к необходимости установления стандартов в отношении того, как модели и рынки вычислительных мощностей учитывают свои возможности при работе с гетерогенными распределенными системами.
По крайней мере, частично из-за отсутствия стандартов, мы видели многочисленные случаи в этом году веб-2 и веб-3, когда модели и рынки вычислений не смогли точно учитывать качество и количество своих вычислений. Это привело к тому, что пользователи вынуждены проверять реальную производительность этих слоев искусственного интеллекта, запуская собственные сравнительные модели и выполняя доказательство работы путем ограничения скорости вычисления.
Учитывая основополагающий принцип крипто-пространства - верифицируемость, мы надеемся, что в 2025 году пересечение крипто и искусственного интеллекта будет более легко подтверждаемым по сравнению с традиционным искусственным интеллектом. Важно, чтобы обычные пользователи могли проводить сопоставление аспектов данной модели или кластера, определяющих ее результаты, для аудита и оценки производительности системы.
В Перспективы и вызовы крипто + приложений искусственного интеллекта«Виталик ссылается на уникальную проблему в сопряжении крипто и ИИ:
«В криптографии открытый исходный код - это единственный способ сделать что-то по-настоящему безопасным, но в ИИ открытость модели (или даже ее тренировочных данных) сильно увеличивает уязвимость к атакам на машинное обучение со стороны агентов вредоносного программного обеспечения».
Несмотря на то, что конфиденциальность не является новой областью исследований для блокчейнов, мы считаем, что распространение искусственного интеллекта будет продолжать ускорять исследования и использование криптографических примитивов, обеспечивающих конфиденциальность. В этом году уже были достигнуты значительные успехи в технологиях, повышающих конфиденциальность, таких как ZK, FHE, TEEs и MPC, для таких сценариев использования, как частное общее состояние для вычислений поверх зашифрованных данных для общих приложений. В то же время мы видели, как гиганты централизованного ИИ, такие как Nvidia и Apple, используют проприетарные TEE для федеративного обучения и частного логического вывода ИИ при поддержании неизменности оборудования, прошивки и моделей в разных системах.
Помня об этом, мы будем внимательно следить за развитием событий в области обеспечения конфиденциальности для стохастических переходов состояний, а также за тем, как они ускоряют прогресс реальных децентрализованных приложений ИИ в гетерогенных системах — от децентрализованного частного вывода до конвейеров хранения и доступа для зашифрованных данных и полностью суверенных сред выполнения.
- Аадхарш
Apple’s Apple Intelligence stack и Nvidia’s H100 GPU
Один из самых ближайших случаев использования AI-агентов - использование их для автономной транзакции на нашем блокчейне от нашего имени. Признается, что в течение последних 12-16 месяцев было много неясностей вокруг того, что именно определяет намерение, агентическое действие, агентическое намерение, солвер, агентический солвер и т.д., и как они отличаются от более традиционного развития «ботов» в последние годы.
В течение следующих 12 месяцев мы будем рады видеть все более сложные языковые системы в сочетании с различными типами данных и архитектурами нейронных сетей для улучшения общего пространства проектирования. Будут ли агенты совершать транзакции, используя те же ончейн-системы, которые мы используем сегодня, или разработают свои собственные инструменты/методы для транзакций в сети? Будут ли LLM по-прежнему оставаться серверной частью этих агентских систем транзакций или совершенно другой системой? Начнут ли пользователи совершать транзакции на уровне интерфейса, используя естественный язык? Будет ли наконец реализован классический тезис о том, что «кошельки как браузеры»?
Compartilhar
Благодаря прозрачности и комбинируемости блокчейнов они становятся идеальной основой для взаимодействия агентов, где агенты, разработанные различными субъектами для различных целей, могут взаимодействовать друг с другом без проблем. Уже были проведены большие экспериментыагенты отправляют средства друг другу,запуск токенов вместе, и многое другое. Мы бы хотели увидеть, как взаимодействие агента с агентом может масштабироваться, создавая совершенно новые пространства приложений, такие какновые социальные места, создаваемые взаимодействием агентов, а также отулучшение рабочих процессов предприятиямы знаем, что сегодня может быть утомительным, начиная от аутентификации и проверки платформы до микроплатежей, интеграции рабочих процессов между платформами и многое другое.
aethernet и clanker запускают токен вместе на Warpcast
Координация мультиагентов в масштабе - это также увлекательная область исследований. Как могут мультиагентные системы работать вместе для выполнения задач, решения проблем и управления системами и протоколами? В своем посте в начале 2024 года, " Обещание и вызовы крипто + приложения искусственного интеллектаВиталик упоминает использование искусственного интеллекта для предсказательных рынков и разрешения споров. На большом масштабе он предполагает, что мультиагентные системы обладают удивительной способностью к «правде»-нахождению и в целом автономным системам управления. Нас интересует, как способности мультиагентных систем и формы «роя интеллекта» продолжают открываться и экспериментироваться.
Как расширение координации агент-агент, координация агент-человек представляет собой интересное пространство для проектирования - конкретно, как сообщества взаимодействуют с агентами или как агенты организуют людей для совместных действий. Мы бы хотели видеть больше экспериментов с агентами, целевая функция которых включает координацию большого числа людей. Это потребует сопряжения с некоторым механизмом проверки, особенно если работа с людьми была выполнена вне цепи блоков, но могут возникнуть очень странное и интересное эмерджентное поведение.
Концепция цифровых персонажей существует десятилетиями.Хацуне Мику (2007) был распродан на арене вместимостью 20 000 мест иLil Miquela (2016) имеет более 2 млн подписчиков в Instagram. Среди более новых и малоизвестных примеров - AI-втуберNeuro-сама (2022) у которого более 600 тыс. подписчиков на Twitch и псевдонимная к-поп группа парней@plave_official/featured"> PLAVE (2023), который набрал более 300 млн просмотров на YouTube менее чем за два года. С учетом достижений в области инфраструктуры искусственного интеллекта и интеграции блокчейнов для платежей, передачи стоимости и открытых платформ данных, мы с нетерпением ждем, когда эти агенты смогут стать более автономными и, возможно, откроют новую основную категорию развлечений в 2025 году.
По часовой стрелке сверху слева: Хацунэ Мику, Луна от Виртуалс, Лил Микела и ПЛАВЕ
Где в предыдущем случае агент этопродукт, также существует случай, когда агенты могут дополнять продукты. В экономике внимания поддержание постоянного потока убедительного контента является ключевым фактором для успеха любой идеи, продукта, компании и т. д. Генеративный/агентичный контент - мощный инструмент, который команды могут использовать, чтобы обеспечить масштабируемую, круглосуточную систему формирования контента. Это пространство идей было ускоренообсуждение того, что отличает мемкойн от агента.Агенты - мощный способ для мемокоинов получить распространение, даже если они еще не совсем «агентичны».
Как еще один пример,@archetypeОт игроков к богам: игры и автономные миры"> игры все чаще ожидаются более динамичными, чтобы поддерживать вовлеченность пользователей. Один из классических методов создания динамики в играх - развитие контента, создаваемого пользователями; чисто генеративный контент (от игровых предметов до NPC и полностью генерируемых уровней) возможно, является следующей эрой этой эволюции. Нас интересует, насколько далеко границы традиционной стратегии распространения будут расширены возможностями агентов в 2025 году.
В 2024 году мы запустили@архетип"> В РАЗГОВОРЕ С, серия интервью с художниками в/на краю крипто в музыке, визуальном искусстве, дизайне, кураторстве и не только. Одним из ключевых наблюдений, которые я сделал из интервью этого года, было то, что художники, заинтересованные в крипто, часто заинтересованы в передовых технологиях более широко, а также в том, чтобы эта технология жила более прочно в эстетике или фокусе их практики, т.е. объекты AR/VR, искусство на основе кода и livecoding.
Особенно генеративное искусство и исторически находило синергию с блокчейнами, что делает его потенциал как аналогичного субстрата для AI искусства более ясным. Показать и правильно отобразить эти средства искусства крайне сложно в традиционных форумах. ArtBlocks дал представление о том, как может выглядеть будущее цифровой презентации, хранения, монетизации и сохранения искусства, используя блокчейны, улучшая общий опыт как для художников, так и для зрителей. Помимо презентации,Искусство AI даже расширило возможности обычных людей создавать свое собственное искусство. Будет очень интересно увидеть, как блокчейны смогут расширить или усилить эти инструменты в 2025 году.
-Кэти
Фрагмент из беседы с Майей Ман
За 20 лет с тех пор, как Клайв Хамби придумал фразу «данные - новая нефть», компании предприняли решительные меры по накоплению и монетизации пользовательских данных. Пользователи осознали, что их данные являются основой, на которой строятся эти многомиллиардные компании, однако у них очень мало контроля над тем, как их данные используются, и они не участвуют в прибыли, которую они помогают генерировать. Ускорение мощных моделей искусственного интеллекта делает эту напряженность еще более существенной. Если борьба с эксплуатацией пользователей составляет одну часть возможности использования данных, другая часть касается решения дефицита предложения данных, поскольку все более крупные и лучшие модели высасывают легкодоступные нефтяные месторождения общедоступных интернет-данных и требуют новых источников.
Что касается первого вопроса о том, как мы можем использовать децентрализованную инфраструктуру для передачи данных обратно в точку их происхождения (пользователям), то это обширное пространство для проектирования, которое требует новых решений в целом ряде областей. Вот некоторые из наиболее актуальных вопросов: где хранятся данные и как мы сохраняем конфиденциальность (во время хранения, передачи и вычислений), как мы объективно сравниваем, фильтруем и оцениваем качество данных, какие механизмы мы используем для атрибуции и монетизации (особенно при привязке ценности к источнику после вывода), а также какие системы оркестровки или поиска данных мы используем в разнообразной экосистеме моделей.
При решении вопроса о преодолении ограничений поставок не стоит просто пытаться воссоздать Scale AI с помощью токенов, а понимать, где у нас может быть преимущество благодаря техническим форсированным ветрам и как мы можем разработать продуманные решения с конкурентным преимуществом, будь то масштаб, качество или лучшие механизмы поощрения (и фильтрации) для создания более ценного продукта данных. Особенно учитывая, что большая часть спроса продолжает поступать из web2 AI, важно продумать, как мы можем соединить механизмы, обеспечиваемые смарт-контрактами, с обычными SLA и инструментами.
Если данные являются одним из фундаментальных строительных блоков в разработке и внедрении искусственного интеллекта, то вычисление является другим. Традиционная парадигма больших центров данных с уникальным доступом к сайтам, энергии и оборудованию в значительной степени определила траекторию глубокого обучения и искусственного интеллекта за последние несколько лет, но физические ограничения наряду с развитием открытых исходных кодов начинают вызывать сомнения в этой динамике.
v1 вычисления в децентрализованном искусственном интеллекте выглядела как реплика облачных вычислений GPU web2 без реального преимущества в снабжении (аппаратного обеспечения или дата-центров) и минимального органического спроса. В v2 мы начинаем видеть некоторые замечательные команды, строящие правильные технологические стеки на основе гетерогенных поставок высокопроизводительных вычислений (HPC) с компетенциями в области оркестрации, маршрутизации и ценообразования, а также с дополнительными собственными функциями, разработанными для привлечения спроса и борьбы с сжатием маржи, особенно в области вывода. Команды также начинают расходиться по случаям использования и GTM, некоторые из них сосредоточены на включении компиляторных фреймворков для эффективной маршрутизации вывода на различном оборудовании, в то время как другие пионерируют распределенные фреймворки обучения моделей поверх собственных вычислительных сетей, которые они создают.
Мы даже начинаем видеть появление рынка искусственного интеллекта с новыми экономическими примитивами, превращающими вычисления и графические процессоры в активы, приносящие доход, или использующими ончейн-ликвидность для предложения центрам обработки данных альтернативного источника капитала для приобретения оборудования. Основной вопрос здесь заключается в том, насколько будет развит и внедрен децентрализованный искусственный интеллект на вычислительных рельсах, или, если, как и с хранением, разрыв между идеологией и практическими потребностями никогда не закрывается достаточно, чтобы реализовать полный потенциал идеи.
Что касается стимулирования сетей к децентрализованным высокопроизводительным вычислениям, то основной проблемой при оркестрации гетерогенных вычислений является отсутствие согласованного набора стандартов для учета указанных вычислений. Модели ИИ уникальным образом добавляют несколько морщин в выходное пространство высокопроизводительных вычислений, начиная от вариантов модели и квантования и заканчивая настраиваемыми уровнями стохастичности с помощьютемператураи выборка гиперпараметров. Кроме того, аппаратное обеспечение ИИ может внести больше изменений через разнообразные выходы на основе архитектур GPU и версийCUDA. В конечном итоге это приводит к необходимости установления стандартов в отношении того, как модели и рынки вычислительных мощностей учитывают свои возможности при работе с гетерогенными распределенными системами.
По крайней мере, частично из-за отсутствия стандартов, мы видели многочисленные случаи в этом году веб-2 и веб-3, когда модели и рынки вычислений не смогли точно учитывать качество и количество своих вычислений. Это привело к тому, что пользователи вынуждены проверять реальную производительность этих слоев искусственного интеллекта, запуская собственные сравнительные модели и выполняя доказательство работы путем ограничения скорости вычисления.
Учитывая основополагающий принцип крипто-пространства - верифицируемость, мы надеемся, что в 2025 году пересечение крипто и искусственного интеллекта будет более легко подтверждаемым по сравнению с традиционным искусственным интеллектом. Важно, чтобы обычные пользователи могли проводить сопоставление аспектов данной модели или кластера, определяющих ее результаты, для аудита и оценки производительности системы.
В Перспективы и вызовы крипто + приложений искусственного интеллекта«Виталик ссылается на уникальную проблему в сопряжении крипто и ИИ:
«В криптографии открытый исходный код - это единственный способ сделать что-то по-настоящему безопасным, но в ИИ открытость модели (или даже ее тренировочных данных) сильно увеличивает уязвимость к атакам на машинное обучение со стороны агентов вредоносного программного обеспечения».
Несмотря на то, что конфиденциальность не является новой областью исследований для блокчейнов, мы считаем, что распространение искусственного интеллекта будет продолжать ускорять исследования и использование криптографических примитивов, обеспечивающих конфиденциальность. В этом году уже были достигнуты значительные успехи в технологиях, повышающих конфиденциальность, таких как ZK, FHE, TEEs и MPC, для таких сценариев использования, как частное общее состояние для вычислений поверх зашифрованных данных для общих приложений. В то же время мы видели, как гиганты централизованного ИИ, такие как Nvidia и Apple, используют проприетарные TEE для федеративного обучения и частного логического вывода ИИ при поддержании неизменности оборудования, прошивки и моделей в разных системах.
Помня об этом, мы будем внимательно следить за развитием событий в области обеспечения конфиденциальности для стохастических переходов состояний, а также за тем, как они ускоряют прогресс реальных децентрализованных приложений ИИ в гетерогенных системах — от децентрализованного частного вывода до конвейеров хранения и доступа для зашифрованных данных и полностью суверенных сред выполнения.
- Аадхарш
Apple’s Apple Intelligence stack и Nvidia’s H100 GPU
Один из самых ближайших случаев использования AI-агентов - использование их для автономной транзакции на нашем блокчейне от нашего имени. Признается, что в течение последних 12-16 месяцев было много неясностей вокруг того, что именно определяет намерение, агентическое действие, агентическое намерение, солвер, агентический солвер и т.д., и как они отличаются от более традиционного развития «ботов» в последние годы.
В течение следующих 12 месяцев мы будем рады видеть все более сложные языковые системы в сочетании с различными типами данных и архитектурами нейронных сетей для улучшения общего пространства проектирования. Будут ли агенты совершать транзакции, используя те же ончейн-системы, которые мы используем сегодня, или разработают свои собственные инструменты/методы для транзакций в сети? Будут ли LLM по-прежнему оставаться серверной частью этих агентских систем транзакций или совершенно другой системой? Начнут ли пользователи совершать транзакции на уровне интерфейса, используя естественный язык? Будет ли наконец реализован классический тезис о том, что «кошельки как браузеры»?