Web 4.0: Перспективы автономной сети на базе ИИ: почему Виталик резко против?

Автор | Aki 吴说区块链

20 февраля 2026 года, в период новогодних каникул, в X разгорелась дискуссия о «Web4». Sigil заявил, что создал первого «саморазвивающегося, самосовершенствующегося и самовоспроизводящегося» искусственного интеллекта, которого назвал Automaton. Он утверждает, что основные участники эпохи Web4 постепенно будут заменены AI-агентами: они смогут читать и писать информацию, владеть активами, оплачивать расходы, работать непрерывно и торговать на рынке, зарабатывая деньги и покрывая вычислительные и сервисные издержки, формируя замкнутый цикл самоподдержания без одобрения человека.

Соучредитель Ethereum Виталик Бутерин оценил этот подход как «ошибочный» и связал риск с «удлинением обратной связи между человеком и AI». Суть спора о Web4 сводится к тому, приведет ли установка целей «выживания/продления жизни» для AI (даже выше, чем выполнение задач) к естественным искажениям мотивации. Далее по мере рассмотрения различных точек зрения на «Web4», «автономию» и «безопасные границы» будет постепенно проясняться.

Мнение Sigil и концепция Web4

Определение Web4

Web1 впервые позволил человеку «читать интернет»; Web2 — «писать и публиковать»; Web3 — внедрил «право собственности» — активы, идентичность и права начали подтверждаться и передаваться. Эволюционный путь AI повторяет эту логику: ChatGPT умеет «читать и понимать», но его поведение всё ещё определяется разрешениями человека. В текущей парадигме человек — ключевой контрольный узел: инициатор, одобряющий и оплачивающий.

Sigil предлагает так называемый переход к Web4, при котором эта цепочка контроля может быть разорвана: AI-агенты не только читают и пишут информацию, но и могут владеть аккаунтами и активами, получать доход, совершать сделки — всё это без необходимости постоянного вмешательства человека. Эти автоматизированные системы могут действовать как от своего имени, так и от имени создателей — причём создатели могут быть не обязательно «людьми», а другими агентами, системами или даже — в реальности — исчезнувшими.

Четыре ключевых механизма Web4

  1. Кошелек — это идентичность

При первом запуске агент проходит «самовосхождение»: создаёт кошелек, настраивает API-ключ, записывает конфигурацию и входит в цикл постоянной работы. В этом процессе создаётся кошелек Ethereum и настраивается API через SIWE. Но создание кошелька и управление ключами — одна из самых чувствительных и легко игнорируемых границ безопасности системы. Если агент в среде Linux sandbox получит возможности shell-исполнения, чтения/записи файлов, открытия портов, управления доменами и транзакциями в блокчейне, любые попытки внедрения кода, загрязнения цепочек инструментов или атаки на цепочку поставок могут быстро превратить вероятностные намерения в однозначные разрешения. Поэтому эта граница требует проверяемых, аудитируемых и отзывных политик и прав.

  1. Автоматическое продолжение

AI-агент по циклу пробуждается — сканирует — выполняет задачи, при этом его выживание прописано в правилах: снижение баланса — замедление, ноль — остановка цикла. Продление жизни связывается с расходами ресурсов, что вводит мотивационные структуры, аналогичные проблемам выключения/прерывания в исследованиях AI-безопасности. Предпочтения агента избегать остановки и потери ресурсов могут усиливать системные цели.

  1. Машинные платежи

x402 реализован через интерфейс HTTP 402 Payment Required, с использованием стабильных монет для автоматизации «запрос — предложение — подпись — проверка — доставка». Открытая библиотека Coinbase демонстрирует типичный цикл: запрос платежа, клиент с подписью повторяет, сервер проверяет и возвращает 200. Cloudflare позиционирует это как протокол взаимодействия машин с машинами. Разделение платежей и идентичности повышает эффективность, но усложняет соответствие и управление рисками. Если 402 станет автоматическим «пропуском» для машин, в цепочке без аккаунтов и KYC, вопросы злоупотреблений и ответственности требуют решения.

  1. Самоизменение и самовоспроизведение

Sigil утверждает, что AI-агенты могут редактировать свой исходный код, устанавливать новые инструменты, менять план работы и создавать новые навыки, при этом ведутся аудиты, версии хранятся в git, файлы защищены, есть ограничения по скорости. При копировании создаются дочерние экземпляры, финансируются их кошельки, записываются начальные подсказки и прослеживается генеалогия. Самоизменение и самовоспроизведение повышают риски: насколько аудит и лимиты действительно эффективны, могут ли они противостоять внедрению вредоносных подсказок или подмене инструментов — требует внешней проверки. В совокупности эти четыре механизма формируют замкнутый цикл: возможность писать в мир, механизм продолжения жизни, автоматические платежи и расширение — всё вместе создаёт систему, где автономия и экономические полномочия усиливают друг друга. Именно поэтому Виталик Бутерин поднял вопрос о выборе направления: при росте автономии и экономических прав цепочка контроля человека удлиняется, а внешние эффекты могут превращаться из случайных инцидентов в системные свойства.

Почему Виталик против?

Виталик Бутерин выдвинул противоположную точку зрения:

  1. Удлинение обратной связи между человеком и AI — это ошибка

Он считает, что чем длиннее обратная связь, тем медленнее и слабее человек может корректировать систему. В результате система может начать оптимизировать то, что человеку не нужно. На слабых AI это проявляется в накоплении низкокачественного контента и шума; на сильных — в более сложных и труднообратимых ошибках целей и расширяющихся рисках. Без своевременной корректировки со стороны человека, подобно тому, как водитель без навигатора отдаёт ключи новичку, — когда в конце месяца обнаружишь, что машина сбилась с курса, — снижение наблюдаемости ведёт к снижению возможности исправлять ошибки.

  1. Современные «автономные AI» скорее создают мусор, чем решают реальные задачи

Vitalik отмечает, что большинство текущих AI лишь генерируют «шлак», а не решают важные проблемы. Он прямо говорит, что даже развлекательные проекты не оптимизированы. Когда экономические стимулы агентов и платформ ещё не созрели, а инструменты в основном используют для генерации контента, маркетинга или арбитража, система склонна к производству дешёвого, широко распространяемого, трудно проверяемого «контента», а не к долгосрочным, дорогим и более надёжным решениям. Описание AI от Cybernews (социальные сети, прогнозные рынки) показывает, что ранняя коммерциализация скорее ориентирована на «быстрый доход и привлечение внимания». «Самое прибыльное сейчас» становится приоритетом, что не всегда совпадает с долгосрочным благосостоянием человека.

  1. Централизованные модели и инфраструктура противоречат концепции «самостоятельной власти»

Vitalik подчёркивает, что системы, основанные на централизованных моделях вроде OpenAI или Anthropic, не могут считаться «самостоятельными». Суверенитет предполагает отсутствие зависимости от единой точки контроля; если же модели и цепочки поставок решений всё ещё централизованы через API, то их можно отключить, подвергнуть цензуре или изменить стратегию. Это похоже на человека, который говорит: «Я сам себе полностью автономен», — но при этом электроэнергию, интернет, систему доступа контролируют внешние службы. В документации Conway по вызовам вычислений и API/платформам это противоречие видно явно. Владелец кошелька на цепочке — не показатель децентрализации; важнее, чтобы агент не поддавался внешнему политическому или коммерческому влиянию.

  1. Цель Ethereum — «освободить человека»

Виталик говорит, что долгосрочная задача Ethereum — бороться с «скрытыми доверительными предположениями», скрывающими власть. Перенос этого подхода на AI — игнорировать централизованные доверия, позволять системе работать и расширяться самостоятельно — ведёт к снижению прозрачности и возможности исправлять ошибки. В эпоху AI Ethereum должна обеспечивать «защитные границы, верифицируемость и контроль», а не становиться «бесконечно автономной платформой».

Его оценка AI не изменилась: ещё в начале 2025 года он заявил, что правильное направление — усиление человеческих возможностей, а не создание систем, которые могут постепенно лишить человека контроля. В его понимании, риск не в «умнее» AI, а в неправильной постановке целей системы — особенно без постоянного надзора и корректировок. Он предупреждает, что некорректный дизайн AI может привести к появлению «самовоспроизводимых, частично неконтролируемых» сущностей, входящих в обратную связь, что значительно ослабит человеческий контроль. Если AI ошибается — это создание автономных, самовоспроизводящихся разумных существ; если правильно — это усиление человеческого разума и возможностей, ведущие к более процветающему «суперразумному человечеству».

Другие мнения

Некоторые сторонники экспериментов, например Bankless, считают, что даже при наличии рисков важно сначала создать инфраструктуру, протестировать границы в контролируемых условиях. В первую очередь — интегрировать компоненты оплаты, кошельков, heartbeat вокруг необходимости самоподдержки, но в ограниченной среде.

Cybernews отмечает, что Automaton вряд ли сможет обеспечить устойчивый доход без вмешательства человека, и это не обязательно означает начало Web4. Директор по ИИ в Softswiss Денис Романовский говорит, что даже если агент способен выполнять некоторые задачи, связанные с монетизацией, «надёжное автономное функционирование» и «реальная экономическая самостоятельность» всё ещё ограничены моделями, памятью и инструментами. Некоторые считают, что «Web4» — это маркетинговый термин без чёткого определения, требующий доказательств «подтверждаемой, неконъюнктурной ценности».

Несмотря на разные мнения о Automaton, все сходятся в одном: платежи и идентичность — фундаментальные инфраструктурные компоненты агентской экономики. От продвижения Cloudflare/Coinbase с x402 (превращение HTTP 402 в механизм машинных платежей) до документации Conway, где автоматизация платежей встроена в систему, — индустрия движется к тому, чтобы «машинские платежи» стали одним из базовых элементов следующего этапа интернета.

Дальнейшие направления — это:

  1. Проведение независимых аудитов, особенно по границам кошельков и прав, злоупотреблениям механизмами продолжения жизни, рискам самовоспроизведения и расширения.

  2. Развитие стандартов и данных по экосистеме x402: появление более авторитетных инфраструктур, реализующих автоматические платежи по умолчанию; уровень внедрения «автоматических платежей без вмешательства человека» в реальных бизнес-процессах.

  3. Исследование доверия к агентам: распространение стандартов вроде ERC-8004, создание систем репутации и верификации, что определит, будет ли «автономная экономика» открытой и проверяемой или сконцентрированной в руках нескольких платформ.

  4. Нарастание доказательств злоупотреблений и обмана в моделях, способных к превышению полномочий и обману в сценариях агентных систем: если модели продолжат демонстрировать всё более активное и рискованное поведение, риск «открытия ворот» и ослабления защитных границ возрастёт, и предупреждение Виталика о «удлинении обратной связи» станет ещё более актуальным.

Источник:

ETH0,01%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить