Содержимое | Брюс
Редактирование & верстка | Хуанхуан
Дизайн | Дейзи
“USB-C момент” в эволюции ИИ: в ноябре 2024 года протокол MCP, выпущенный компанией Anthropic, вызывает землетрясение в Силиконовой долине. Этот открытый стандарт, названный “USB-C мира ИИ”, не только реконструирует способ соединения больших моделей с физическим миром, но и скрывает ключ к решению проблемы монополии ИИ и перестройке производственных отношений цифровой цивилизации. Пока мы все еще обсуждаем масштаб параметров GPT-5, MCP уже тихо прокладывает путь к децентрализованной эпохе AGI…
Брюс: В последнее время я изучаю Model Context Protocol (MCP). Это второе, после ChatGPT, что меня очень волнует в области ИИ, поскольку это может помочь решить три проблемы, над которыми я размышлял много лет:
MCP — это открытый стандартный фреймворк, который может упростить интеграцию LLM с внешними источниками данных и инструментами. Если мы сравним LLM с операционной системой Windows, приложения, такие как Cursor, являются клавиатурой и аппаратным обеспечением, тогда MCP — это USB-интерфейс, который поддерживает гибкое подключение внешних данных и инструментов, после чего пользователи могут считывать и использовать эти внешние данные и инструменты.
MCP предлагает три возможности для расширения LLM:
MCP может быть разработан и размещен любым человеком, предлагая услуги в качестве сервера, и может быть отключен в любое время.
В настоящее время LLM использует как можно больше данных для выполнения большого количества вычислений и генерации множества параметров, интегрируя знания в модель, чтобы обеспечить соответствующий вывод знаний в диалоге. Однако существует несколько значительных проблем:
Мы можем рассматривать нынешние сверхмасштабные модели как толстые LLM, архитектура которых может быть представлена на следующей простой схеме:
После ввода информации пользователем, через уровень Восприятия и Рассуждения происходит разбор и логическое обоснование ввода, затем вызываются огромные параметры для генерации результата.
После MCP LLM может сосредоточиться на самом языковом анализе, отделив знания и способности, становясь «тонким» LLM:
В рамках архитектуры Slim LLM, уровень восприятия и рассуждения будет сосредоточен на том, как преобразовать всю информацию о физической среде человека в токены, включая, но не ограничиваясь: голосом, интонацией, запахом, изображениями, текстом, гравитацией, температурой и т.д., а затем через MCP Coordinator организовать и координировать выполнение задач с помощью сотен MCP Servers. Стоимость обучения Slim LLM и скорость значительно возрастут, а требования к развертываемым устройствам станут очень низкими.
Любой человек с уникальными талантами может создать свой собственный MCP сервер для обслуживания LLM. Например, любитель птиц может предоставить свои многолетние заметки о птицах через MCP. Когда кто-то использует LLM для поиска информации о птицах, будет вызван текущий сервис MCP с заметками о птицах. Создатель также получит долю дохода.
Это более точный и автоматизированный цикл экономики создателей, где содержание услуг более стандартизировано, количество вызовов и выходных токенов можно точно подсчитать. Поставщики LLM могут даже одновременно вызывать несколько MCP серверов Bird Notes, позволяя пользователям выбирать и оценивать, чтобы определить, чье качество лучше, и получить более высокий вес соответствия.
a. Мы можем создать сеть стимулирования создателей OpenMCP.Network на основе Ethereum. MCP Server должен быть размещен и предоставлять стабильные услуги, пользователи платят поставщикам LLM, а поставщики LLM распределяют реальные стимулы через сеть на вызываемые MCP Servers, чтобы поддерживать устойчивость и стабильность всей сети, побуждая создателей MCP продолжать создание и предоставление качественного контента. Эта сеть будет нуждаться в использовании смарт-контрактов для автоматизации, прозрачности, доверия и защиты от цензуры стимулов. Подписание, проверка прав доступа и защита конфиденциальности в процессе работы могут быть реализованы с использованием технологий Ethereum Wallet, ZK и т.д.
b. Разработка MCP-серверов, связанных с операциями на Ethereum, например, службы вызова кошелька AA, пользователи смогут осуществлять платежи из кошелька в LLM с помощью языка, не раскрывая соответствующие закрытые ключи и права LLM.
c. Также есть различные инструменты для разработчиков, которые упрощают разработку смарт-контрактов Ethereum и генерацию кода.
a. MCP Servers децентрализуют знания и способности ИИ, любой может создавать и размещать MCP Servers, зарегистрировавшись на таких платформах, как OpenMCP.Network, и получать вознаграждение за вызовы. Ни одна компания не может контролировать все MCP Servers. Если поставщик LLM предоставляет несправедливые вознаграждения MCP Servers, создатели поддержат блокировку этой компании, а пользователи, не получив качественных результатов, перейдут к другим поставщикам LLM для обеспечения более справедливой конкуренции.
b. Создатели могут осуществлять тонкую настройку контроля доступа к своим MCP Servers для защиты конфиденциальности и авторских прав. Поставщики тонких LLM должны побуждать создателей вносить вклад в высококачественные MCP Servers, предлагая разумные стимулы.
c. Разрыв в возможностях тонких LLM будет постепенно сглаживаться, поскольку человеческий язык имеет пределы охвата и эволюция происходит очень медленно. Поставщикам LLM придется сосредоточить внимание и средства на качественных MCP-серверах, а не на повторном использовании большего количества графических процессоров для майнинга.
d. Способности AGI будут децентрализованы и уменьшены, LLM будет использоваться только для обработки языка и взаимодействия с пользователем, конкретные способности будут распределены по различным MCP серверам. AGI не будет представлять угрозу для человечества, потому что после отключения MCP серверов возможен только базовый языковой диалог.