«Произведение искусства никогда не заканчивается, оно только оставляется».
Все говорят о агентах ИИ, но то, что они имеют в виду, не одно и то же, что приводит к различным пониманиям агентов ИИ с нашей точки зрения, общественности и практиков ИИ.
Давным-давно я написал, что Крипто - это иллюзия искусственного интеллекта. С тех пор сочетание крипто и ИИ осталось односторонней любовной историей. Практики ИИ редко упоминают Web3 или блокчейн, в то время как энтузиасты крипто глубоко влюблены в ИИ. После того, как было замечено явление, когда фреймворки ИИ-агентов могут быть токенизированы, неизвестно, сможет ли это действительно привлечь практиков ИИ в наш мир.
ИИ является агентом Крипто. Это лучшая аннотация с точки зрения криптовалюты для просмотра текущего взлета ИИ. Восторг Крипто по отношению к ИИ отличается от других отраслей; мы особенно надеемся интегрировать выпуск и управление финансовыми активами с ним.
В основе AI Agent есть по крайней мере три источника. AGI (Artificial General Intelligence) OpenAI считает это важным шагом, превращая этот термин в популярное модное слово за пределами технических кругов. Однако, по сути, Агент - это не новая концепция. Даже с использованием ИИ, сложно сказать, что это революционный технологический тренд.
Первый источник - это AI Agent, как видит его OpenAI. Подобно уровню L3 в автономном вождении, AI Agent можно считать обладающим определенными продвинутыми возможностями помощи, но пока еще не способным полностью заменить человека.
Подпись к изображению: Фаза AGI планирования OpenAI
Источник изображения: https://www.bloomberg.com/
Второй источник, как следует из названия, является ИИ-агентом, который является агентом, наделенным полномочиями ИИ. Концепция агентских и делегирующих механизмов не нова в области вычислительной техники. Однако, по замыслу OpenAI, агент станет стадией L3 после диалоговых форм (например, ChatGPT) и форм рассуждений (например, различные боты). Ключевой особенностью этого этапа является способность «выполнять определенное поведение автономно», или, как определяет ее основатель LangChain Харрисон Чейз: «Агент ИИ — это система, которая использует LLM (Large Language Model) для принятия решений о потоке управления в программе».
Здесь это становится интересным. До появления LLMs Агент в основном выполнял автоматизированные процессы, заданные людьми. Например, при разработке веб-скрейпера программисты устанавливали User-Agent для имитации деталей, таких как версия браузера и используемая операционная система реальными пользователями. Если бы был использован AI Agent для более точной имитации человеческого поведения, это могло бы привести к созданию основанной на AI Agent рамки веб-скрейпера, делая скрейпер «более похожим на человека».
В таких переходах внедрение AI Agents должно интегрироваться с существующими сценариями, поскольку полностью новые области практически не существуют. Даже возможности автодополнения и генерации кода в таких инструментах, как Curosr и Github Copilot, представляют собой лишь функциональные улучшения в рамках протокола языкового сервера (LSP), с многочисленными примерами такой эволюции:
Поясним, что при человеко-машинном взаимодействии комбинация графического интерфейса и браузеров Web 1.0 действительно позволяла публике использовать компьютеры без каких-либо барьеров, представленных комбинацией Windows и IE. API-интерфейсы стали стандартом абстракции и передачи данных в Интернете, а в эпоху Web 2.0 появились такие браузеры, как Chrome, а переход на мобильные устройства изменил привычки людей в использовании Интернета. Суперприложения, такие как WeChat и платформы Meta, теперь охватывают все аспекты жизни людей.
Третий источник - концепция «намерения» в крипто-пространстве, что привело к всплеску интереса к AI-агентам. Однако следует отметить, что это применимо только в крипто-пространстве. От скриптов Bitcoin с ограниченными возможностями до смарт-контрактов Ethereum, сама концепция агента широко используется. Последующее появление мостов между цепями, абстракций цепей, EOA (Внешних Собственных Счетов) до кошельков AA (Абстракция Счета) являются естественным продолжением этой линии мысли. Поэтому, когда AI-агенты «вторгаются» в крипто-пространство, не удивительно, что они естественно приводят к сценариям DeFi.
Именно здесь возникает путаница вокруг концепции AI Agent. В контексте Крипто мы фактически пытаемся достичь "автоматизированного финансового управления, автоматизированной генерации мемов" Агента. Однако, согласно определению OpenAI, для реализации такого рискованного сценария потребуется уровень L4 или L5. Тем временем публика экспериментирует с автоматической генерацией кода или AI-поддержкой сжатия и написания, что не соответствует целям, которые мы преследуем.
После того как мы поймем, чего мы действительно хотим, мы сможем сосредоточиться на организационной логике AI Агентов. Технические детали последуют, поскольку концепция AI Агента в конечном итоге заключается в устранении преград перед принятием технологий крупномасштабно, подобно тому, как браузеры революционизировали индустрию персональных компьютеров. Наше внимание сосредоточено будет на двух аспектах: рассмотрении AI Агентов с точки зрения взаимодействия человека с компьютером и понимании различий и связей между AI Агентами и LLMs, что приведет нас к третьей части: что в конечном итоге останется от сочетания Крипто и AI Агентов.
Перед появлением разговорных моделей взаимодействия человека с компьютером, таких как ChatGPT, основными формами взаимодействия человека с компьютером были GUI (графический интерфейс пользователя) и CLI (интерфейс командной строки). Менталитет GUI эволюционировал в различные специфические формы, такие как браузеры и приложения, в то время как сочетание CLI и Shell практически не изменилось.
Но это всего лишь «фронтенд» взаимодействия человека с компьютером. Поскольку интернет развивался, увеличение объема и разнообразия данных привело к большему взаимодействию «бэкенд» между данными и между приложениями. Эти два аспекта зависят друг от друга - даже простое действие просмотра веб-страницы на самом деле требует их сотрудничества.
Если взаимодействие человека с браузерами и приложениями рассматривается как точка входа пользователя, то ссылки и переходы между API поддерживают фактическую работу Интернета. Это, фактически, также является частью Агента. Обычным пользователям не нужно понимать такие термины, как командные строки и API, чтобы достичь своих целей.
То же самое верно и для LLMs. Теперь пользователи могут пойти еще дальше - нет больше необходимости в поиске. Весь процесс можно описать в следующих шагах:
В этом процессе можно обнаружить, что самая большая проблема - Google, потому что пользователям не нужно открывать поисковик, а различные диалоговые окна, подобные GPT, и трафиковый вход тихо меняется. Именно по этой причине некоторые считают, что эта LLM революционизирует жизнь поисковиков.
Итак, какую роль играет агент искусственного интеллекта в этом процессе?
Вкратце, AI Agent - это специализированное расширение LLM.
Текущие LLM не являются AGI (искусственным общим интеллектом) и далеки от задуманного OpenAI уровня L5 организатора. Их возможности значительно ограничены. Например, LLM склонны к галлюцинациям, если им подавать слишком много пользовательского ввода. Одна из ключевых причин заключается в механизме обучения. Например, если вы многократно говорите GPT, что 1+1=3, существует вероятность того, что он может ответить 4, когда его спросят о 1+1+1=?.
Это происходит потому, что обратная связь GPT полностью происходит из пользовательского ввода. Если модель не подключена к интернету, возможно, что ее работа может быть изменена вашими вводами, что приведет к модели, которая знает только "1 + 1 = 3". Однако, если модели разрешено подключиться к интернету, ее механизм обратной связи становится более разнообразным, так как подавляющее большинство онлайн-данных подтвердило бы, что 1 + 1 = 2.
Теперь, что, если нам нужно использовать LLMs локально и хотим избежать таких проблем?
Простым решением является использование двух LLM одновременно, требуя от них валидации ответов друг друга, чтобы снизить вероятность ошибок. Если этого недостаточно, другой подход может включать в себя использование двух пользователей, выполняющих один и тот же процесс - один задает вопросы, а другой уточняет их, чтобы сделать язык более точным и логичным.
Конечно, подключение к интернету не полностью исключает проблемы. Например, если LLM получает ответы из ненадежных источников, ситуация может ухудшиться. Однако избегание таких данных уменьшает количество доступной информации. Чтобы решить эту проблему, существующие данные можно разделить, объединить или даже использовать для генерации новых данных на основе более старых наборов данных, чтобы сделать ответы более надежными. Этот подход в основном является концепцией RAG (Retrieval-Augmented Generation) в понимании естественного языка.
Людям и машинам необходимо понимать друг друга. Когда несколько LLM сотрудничают и взаимодействуют, мы по существу используем операционную модель AI Agents. Они служат как прокси-серверы, получая доступ к другим ресурсам, включая большие модели и другие агенты.
Это приводит нас к связи между LLM и AI агентами:
LLM-это совокупности знаний, с которыми человек взаимодействует через чат-интерфейсы. Однако на практике определенные конкретные рабочие процессы могут быть сокращены до более мелких программ, ботов или наборов инструкций. Они определяются как Агенты.
Искусственные интеллект-агенты остаются подмножеством LLM, но не должны быть с ними равнозначными. Особенностью искусственных интеллект-агентов является их акцент на сотрудничестве с внешними программами, LLM и другими агентами. Поэтому люди часто сводят искусственных интеллект-агентов к LLM + API.
Чтобы проиллюстрировать это в рабочем процессе LLM, давайте рассмотрим пример вызова API через AI-агента:
Помните эволюцию взаимодействия человека с компьютером? Браузеры, API и другие элементы из Веб 1.0 и Веб 2.0 все еще существуют, но пользователи больше не нуждаются в прямом взаимодействии с ними. Вместо этого они могут просто общаться с AI-агентами. Вызовы API и связанные процессы могут осуществляться в разговорной форме. Эти службы API могут охватывать любой тип данных, будь то локальные, онлайн или из внешних приложений, при условии, что интерфейсы открыты, и пользователи имеют необходимые разрешения для доступа к ним.
Полный рабочий процесс AI Agent, как показано выше, рассматривает LLM как отдельный компонент от AI Agent или как два подпроцесса в рамках одного рабочего процесса. Независимо от того, как они разделены, цель всегда заключается в удовлетворении потребностей пользователя. С точки зрения взаимодействия человека с компьютером, это может даже казаться так, будто пользователи разговаривают сами с собой. Вам просто нужно полностью выразить свои мысли, и AI/LLM/AI Agent будет многократно угадывать ваши потребности. Путем внедрения механизмов обратной связи и обеспечения того, чтобы LLM запомнил текущий контекст, AI Agent избегает потери своих задач.
В общем, искусственные интеллектуальные агенты являются более персонализированными и гуманизированными созданиями, что отличает их от традиционных сценариев и инструментов автоматизации. Они действуют как личные помощники, учитывая фактические потребности пользователя. Однако важно отметить, что такая персонализация все еще основана на вероятностном выводе. Искусственный интеллект на уровне L3 не обладает пониманием и выражательными способностями на уровне человека, что делает его интеграцию с внешними API потенциально опасной.
Возможность монетизировать фреймворки искусственного интеллекта - одна из основных причин, по которой я остаюсь заинтересованным в криптовалюте. В традиционных стеках технологий искусственного интеллекта фреймворки не являются особенно важными, по крайней мере, не в сравнении с данными и вычислительной мощностью. Монетизация продуктов искусственного интеллекта редко начинается с фреймворка, поскольку большинство алгоритмов и моделей фреймворков искусственного интеллекта являются открытыми исходниками. Что остается закрытым - это чувствительные элементы, такие как данные.
На самом деле, фреймворки или модели искусственного интеллекта - это контейнеры и комбинации алгоритмов, подобные кастрюлям для тушения гуся. Однако качество гуся и мастерство процесса приготовления по-настоящему определяют его вкус. В теории, продуктом, предлагаемым к продаже, должен быть гусь, но клиенты Web3, кажется, предпочитают покупать кастрюлю, отбрасывая гуся.
Причина этого несложна. Большинство продуктов Web3 AI основаны на существующих фреймворках, алгоритмах и продуктах и адаптируют их для своих целей. Фактически, технические принципы различных криптографических AI-фреймворков не сильно отличаются. Поскольку сама технология не имеет дифференциации, внимание переключается на брендинг, сценарии применения и другие поверхностные отличия. В результате, даже незначительные изменения в AI-фреймворке становятся основой для поддержки различных токенов, что приводит к созданию фреймворк-пузыря в экосистемах криптографических AI-агентов.
Поскольку нет необходимости в крупных инвестициях в обучающие данные или алгоритмы, особенно важно различать фреймворки по их названиям. Даже доступный фреймворк, такой как DeepSeek V3, все еще требует значительных затрат на мощность GPU, электричество и усилия.
В определенном смысле это соответствует недавнему тренду Web3: платформы, выпускающие токены, часто более ценны, чем сами токены. Проекты, такие как Pump.Fun и Hyperliquid, являются примерами этого. Изначально Агенты должны были представлять приложения и активы, но платформы, выпускающие Агентов, теперь стали самыми горячими товарами.
Это отражает форму анкерного значения. Поскольку Агенты лишены дифференциации, рамки для выпуска Агентов становятся более стабильными и создают эффект выкачивания значения для выпуска активов. Это отмечает версию 1.0 интеграции крипто и ИИ Агентов.
Сейчас появляется версия 2.0, которую иллюстрирует слияние DeFi и AI Agents. В то время как концепция DeFAI может быть вызвана рыночным хайпом, более детальный анализ следующих тенденций говорит об обратном:
В этом контексте преобразования DeFi искусственный интеллект переформатирует фундаментальную логику DeFi. Ранее, основная логика DeFi заключалась в проверке осуществимости смарт-контрактов. Теперь искусственный интеллект меняет логику создания DeFi-продуктов. Вам больше не нужно понимать DeFi, чтобы создавать DeFi-продукты. Это означает шаг вперед от абстракции цепи, обеспечивая более глубокое основное управление.
Эпоха, когда каждый может быть программистом, наступает. Сложные вычисления могут быть переданы на исполнение LLM и использование API за AI-агентами, позволяя отдельным лицам сосредоточиться исключительно на своих идеях. Естественный язык может быть эффективно преобразован в логику программирования.
В этой статье не упоминаются никакие токены или фреймворки Crypto AI Agent, так как Cookie.Fun уже сделал отличную работу - платформа для агрегации информации об AI Agent и обнаружения токенов, за которой следуют фреймворки AI Agent, и, наконец, преходящее появление и исчезновение токенов Agent. Продолжение перечисления такой информации здесь будет иметь мало ценности.
Однако, наблюдая за рынком в этот период, можно сказать, что все еще не ведется осмысленного обсуждения того, к чему в конечном итоге указывают агенты искусственного интеллекта Крипто. Мы не можем продолжать сосредотачиваться на указателях; сущность заключается в изменениях, происходящих на уровне памяти.
Именно постоянно развивающаяся способность превращать различные активы в токенизированные формы делает Крипто таким увлекательным.
«Произведение искусства никогда не заканчивается, оно только оставляется».
Все говорят о агентах ИИ, но то, что они имеют в виду, не одно и то же, что приводит к различным пониманиям агентов ИИ с нашей точки зрения, общественности и практиков ИИ.
Давным-давно я написал, что Крипто - это иллюзия искусственного интеллекта. С тех пор сочетание крипто и ИИ осталось односторонней любовной историей. Практики ИИ редко упоминают Web3 или блокчейн, в то время как энтузиасты крипто глубоко влюблены в ИИ. После того, как было замечено явление, когда фреймворки ИИ-агентов могут быть токенизированы, неизвестно, сможет ли это действительно привлечь практиков ИИ в наш мир.
ИИ является агентом Крипто. Это лучшая аннотация с точки зрения криптовалюты для просмотра текущего взлета ИИ. Восторг Крипто по отношению к ИИ отличается от других отраслей; мы особенно надеемся интегрировать выпуск и управление финансовыми активами с ним.
В основе AI Agent есть по крайней мере три источника. AGI (Artificial General Intelligence) OpenAI считает это важным шагом, превращая этот термин в популярное модное слово за пределами технических кругов. Однако, по сути, Агент - это не новая концепция. Даже с использованием ИИ, сложно сказать, что это революционный технологический тренд.
Первый источник - это AI Agent, как видит его OpenAI. Подобно уровню L3 в автономном вождении, AI Agent можно считать обладающим определенными продвинутыми возможностями помощи, но пока еще не способным полностью заменить человека.
Подпись к изображению: Фаза AGI планирования OpenAI
Источник изображения: https://www.bloomberg.com/
Второй источник, как следует из названия, является ИИ-агентом, который является агентом, наделенным полномочиями ИИ. Концепция агентских и делегирующих механизмов не нова в области вычислительной техники. Однако, по замыслу OpenAI, агент станет стадией L3 после диалоговых форм (например, ChatGPT) и форм рассуждений (например, различные боты). Ключевой особенностью этого этапа является способность «выполнять определенное поведение автономно», или, как определяет ее основатель LangChain Харрисон Чейз: «Агент ИИ — это система, которая использует LLM (Large Language Model) для принятия решений о потоке управления в программе».
Здесь это становится интересным. До появления LLMs Агент в основном выполнял автоматизированные процессы, заданные людьми. Например, при разработке веб-скрейпера программисты устанавливали User-Agent для имитации деталей, таких как версия браузера и используемая операционная система реальными пользователями. Если бы был использован AI Agent для более точной имитации человеческого поведения, это могло бы привести к созданию основанной на AI Agent рамки веб-скрейпера, делая скрейпер «более похожим на человека».
В таких переходах внедрение AI Agents должно интегрироваться с существующими сценариями, поскольку полностью новые области практически не существуют. Даже возможности автодополнения и генерации кода в таких инструментах, как Curosr и Github Copilot, представляют собой лишь функциональные улучшения в рамках протокола языкового сервера (LSP), с многочисленными примерами такой эволюции:
Поясним, что при человеко-машинном взаимодействии комбинация графического интерфейса и браузеров Web 1.0 действительно позволяла публике использовать компьютеры без каких-либо барьеров, представленных комбинацией Windows и IE. API-интерфейсы стали стандартом абстракции и передачи данных в Интернете, а в эпоху Web 2.0 появились такие браузеры, как Chrome, а переход на мобильные устройства изменил привычки людей в использовании Интернета. Суперприложения, такие как WeChat и платформы Meta, теперь охватывают все аспекты жизни людей.
Третий источник - концепция «намерения» в крипто-пространстве, что привело к всплеску интереса к AI-агентам. Однако следует отметить, что это применимо только в крипто-пространстве. От скриптов Bitcoin с ограниченными возможностями до смарт-контрактов Ethereum, сама концепция агента широко используется. Последующее появление мостов между цепями, абстракций цепей, EOA (Внешних Собственных Счетов) до кошельков AA (Абстракция Счета) являются естественным продолжением этой линии мысли. Поэтому, когда AI-агенты «вторгаются» в крипто-пространство, не удивительно, что они естественно приводят к сценариям DeFi.
Именно здесь возникает путаница вокруг концепции AI Agent. В контексте Крипто мы фактически пытаемся достичь "автоматизированного финансового управления, автоматизированной генерации мемов" Агента. Однако, согласно определению OpenAI, для реализации такого рискованного сценария потребуется уровень L4 или L5. Тем временем публика экспериментирует с автоматической генерацией кода или AI-поддержкой сжатия и написания, что не соответствует целям, которые мы преследуем.
После того как мы поймем, чего мы действительно хотим, мы сможем сосредоточиться на организационной логике AI Агентов. Технические детали последуют, поскольку концепция AI Агента в конечном итоге заключается в устранении преград перед принятием технологий крупномасштабно, подобно тому, как браузеры революционизировали индустрию персональных компьютеров. Наше внимание сосредоточено будет на двух аспектах: рассмотрении AI Агентов с точки зрения взаимодействия человека с компьютером и понимании различий и связей между AI Агентами и LLMs, что приведет нас к третьей части: что в конечном итоге останется от сочетания Крипто и AI Агентов.
Перед появлением разговорных моделей взаимодействия человека с компьютером, таких как ChatGPT, основными формами взаимодействия человека с компьютером были GUI (графический интерфейс пользователя) и CLI (интерфейс командной строки). Менталитет GUI эволюционировал в различные специфические формы, такие как браузеры и приложения, в то время как сочетание CLI и Shell практически не изменилось.
Но это всего лишь «фронтенд» взаимодействия человека с компьютером. Поскольку интернет развивался, увеличение объема и разнообразия данных привело к большему взаимодействию «бэкенд» между данными и между приложениями. Эти два аспекта зависят друг от друга - даже простое действие просмотра веб-страницы на самом деле требует их сотрудничества.
Если взаимодействие человека с браузерами и приложениями рассматривается как точка входа пользователя, то ссылки и переходы между API поддерживают фактическую работу Интернета. Это, фактически, также является частью Агента. Обычным пользователям не нужно понимать такие термины, как командные строки и API, чтобы достичь своих целей.
То же самое верно и для LLMs. Теперь пользователи могут пойти еще дальше - нет больше необходимости в поиске. Весь процесс можно описать в следующих шагах:
В этом процессе можно обнаружить, что самая большая проблема - Google, потому что пользователям не нужно открывать поисковик, а различные диалоговые окна, подобные GPT, и трафиковый вход тихо меняется. Именно по этой причине некоторые считают, что эта LLM революционизирует жизнь поисковиков.
Итак, какую роль играет агент искусственного интеллекта в этом процессе?
Вкратце, AI Agent - это специализированное расширение LLM.
Текущие LLM не являются AGI (искусственным общим интеллектом) и далеки от задуманного OpenAI уровня L5 организатора. Их возможности значительно ограничены. Например, LLM склонны к галлюцинациям, если им подавать слишком много пользовательского ввода. Одна из ключевых причин заключается в механизме обучения. Например, если вы многократно говорите GPT, что 1+1=3, существует вероятность того, что он может ответить 4, когда его спросят о 1+1+1=?.
Это происходит потому, что обратная связь GPT полностью происходит из пользовательского ввода. Если модель не подключена к интернету, возможно, что ее работа может быть изменена вашими вводами, что приведет к модели, которая знает только "1 + 1 = 3". Однако, если модели разрешено подключиться к интернету, ее механизм обратной связи становится более разнообразным, так как подавляющее большинство онлайн-данных подтвердило бы, что 1 + 1 = 2.
Теперь, что, если нам нужно использовать LLMs локально и хотим избежать таких проблем?
Простым решением является использование двух LLM одновременно, требуя от них валидации ответов друг друга, чтобы снизить вероятность ошибок. Если этого недостаточно, другой подход может включать в себя использование двух пользователей, выполняющих один и тот же процесс - один задает вопросы, а другой уточняет их, чтобы сделать язык более точным и логичным.
Конечно, подключение к интернету не полностью исключает проблемы. Например, если LLM получает ответы из ненадежных источников, ситуация может ухудшиться. Однако избегание таких данных уменьшает количество доступной информации. Чтобы решить эту проблему, существующие данные можно разделить, объединить или даже использовать для генерации новых данных на основе более старых наборов данных, чтобы сделать ответы более надежными. Этот подход в основном является концепцией RAG (Retrieval-Augmented Generation) в понимании естественного языка.
Людям и машинам необходимо понимать друг друга. Когда несколько LLM сотрудничают и взаимодействуют, мы по существу используем операционную модель AI Agents. Они служат как прокси-серверы, получая доступ к другим ресурсам, включая большие модели и другие агенты.
Это приводит нас к связи между LLM и AI агентами:
LLM-это совокупности знаний, с которыми человек взаимодействует через чат-интерфейсы. Однако на практике определенные конкретные рабочие процессы могут быть сокращены до более мелких программ, ботов или наборов инструкций. Они определяются как Агенты.
Искусственные интеллект-агенты остаются подмножеством LLM, но не должны быть с ними равнозначными. Особенностью искусственных интеллект-агентов является их акцент на сотрудничестве с внешними программами, LLM и другими агентами. Поэтому люди часто сводят искусственных интеллект-агентов к LLM + API.
Чтобы проиллюстрировать это в рабочем процессе LLM, давайте рассмотрим пример вызова API через AI-агента:
Помните эволюцию взаимодействия человека с компьютером? Браузеры, API и другие элементы из Веб 1.0 и Веб 2.0 все еще существуют, но пользователи больше не нуждаются в прямом взаимодействии с ними. Вместо этого они могут просто общаться с AI-агентами. Вызовы API и связанные процессы могут осуществляться в разговорной форме. Эти службы API могут охватывать любой тип данных, будь то локальные, онлайн или из внешних приложений, при условии, что интерфейсы открыты, и пользователи имеют необходимые разрешения для доступа к ним.
Полный рабочий процесс AI Agent, как показано выше, рассматривает LLM как отдельный компонент от AI Agent или как два подпроцесса в рамках одного рабочего процесса. Независимо от того, как они разделены, цель всегда заключается в удовлетворении потребностей пользователя. С точки зрения взаимодействия человека с компьютером, это может даже казаться так, будто пользователи разговаривают сами с собой. Вам просто нужно полностью выразить свои мысли, и AI/LLM/AI Agent будет многократно угадывать ваши потребности. Путем внедрения механизмов обратной связи и обеспечения того, чтобы LLM запомнил текущий контекст, AI Agent избегает потери своих задач.
В общем, искусственные интеллектуальные агенты являются более персонализированными и гуманизированными созданиями, что отличает их от традиционных сценариев и инструментов автоматизации. Они действуют как личные помощники, учитывая фактические потребности пользователя. Однако важно отметить, что такая персонализация все еще основана на вероятностном выводе. Искусственный интеллект на уровне L3 не обладает пониманием и выражательными способностями на уровне человека, что делает его интеграцию с внешними API потенциально опасной.
Возможность монетизировать фреймворки искусственного интеллекта - одна из основных причин, по которой я остаюсь заинтересованным в криптовалюте. В традиционных стеках технологий искусственного интеллекта фреймворки не являются особенно важными, по крайней мере, не в сравнении с данными и вычислительной мощностью. Монетизация продуктов искусственного интеллекта редко начинается с фреймворка, поскольку большинство алгоритмов и моделей фреймворков искусственного интеллекта являются открытыми исходниками. Что остается закрытым - это чувствительные элементы, такие как данные.
На самом деле, фреймворки или модели искусственного интеллекта - это контейнеры и комбинации алгоритмов, подобные кастрюлям для тушения гуся. Однако качество гуся и мастерство процесса приготовления по-настоящему определяют его вкус. В теории, продуктом, предлагаемым к продаже, должен быть гусь, но клиенты Web3, кажется, предпочитают покупать кастрюлю, отбрасывая гуся.
Причина этого несложна. Большинство продуктов Web3 AI основаны на существующих фреймворках, алгоритмах и продуктах и адаптируют их для своих целей. Фактически, технические принципы различных криптографических AI-фреймворков не сильно отличаются. Поскольку сама технология не имеет дифференциации, внимание переключается на брендинг, сценарии применения и другие поверхностные отличия. В результате, даже незначительные изменения в AI-фреймворке становятся основой для поддержки различных токенов, что приводит к созданию фреймворк-пузыря в экосистемах криптографических AI-агентов.
Поскольку нет необходимости в крупных инвестициях в обучающие данные или алгоритмы, особенно важно различать фреймворки по их названиям. Даже доступный фреймворк, такой как DeepSeek V3, все еще требует значительных затрат на мощность GPU, электричество и усилия.
В определенном смысле это соответствует недавнему тренду Web3: платформы, выпускающие токены, часто более ценны, чем сами токены. Проекты, такие как Pump.Fun и Hyperliquid, являются примерами этого. Изначально Агенты должны были представлять приложения и активы, но платформы, выпускающие Агентов, теперь стали самыми горячими товарами.
Это отражает форму анкерного значения. Поскольку Агенты лишены дифференциации, рамки для выпуска Агентов становятся более стабильными и создают эффект выкачивания значения для выпуска активов. Это отмечает версию 1.0 интеграции крипто и ИИ Агентов.
Сейчас появляется версия 2.0, которую иллюстрирует слияние DeFi и AI Agents. В то время как концепция DeFAI может быть вызвана рыночным хайпом, более детальный анализ следующих тенденций говорит об обратном:
В этом контексте преобразования DeFi искусственный интеллект переформатирует фундаментальную логику DeFi. Ранее, основная логика DeFi заключалась в проверке осуществимости смарт-контрактов. Теперь искусственный интеллект меняет логику создания DeFi-продуктов. Вам больше не нужно понимать DeFi, чтобы создавать DeFi-продукты. Это означает шаг вперед от абстракции цепи, обеспечивая более глубокое основное управление.
Эпоха, когда каждый может быть программистом, наступает. Сложные вычисления могут быть переданы на исполнение LLM и использование API за AI-агентами, позволяя отдельным лицам сосредоточиться исключительно на своих идеях. Естественный язык может быть эффективно преобразован в логику программирования.
В этой статье не упоминаются никакие токены или фреймворки Crypto AI Agent, так как Cookie.Fun уже сделал отличную работу - платформа для агрегации информации об AI Agent и обнаружения токенов, за которой следуют фреймворки AI Agent, и, наконец, преходящее появление и исчезновение токенов Agent. Продолжение перечисления такой информации здесь будет иметь мало ценности.
Однако, наблюдая за рынком в этот период, можно сказать, что все еще не ведется осмысленного обсуждения того, к чему в конечном итоге указывают агенты искусственного интеллекта Крипто. Мы не можем продолжать сосредотачиваться на указателях; сущность заключается в изменениях, происходящих на уровне памяти.
Именно постоянно развивающаяся способность превращать различные активы в токенизированные формы делает Крипто таким увлекательным.