Слепо мчащийся ИИ: тревога открытого финала и дилемма заключённого

Написано: BayesCrest

Ключевая проблема эпохи ИИ — это не только ускорение технологий, а одновременно попадание всех субъектов в открытую ловушку «дилеммы заключенного» открытого финала: компании не осмеливаются остановиться, боясь, что конкуренты завершат AI-native реструктуризацию первыми; сотрудники не осмеливаются остановиться, опасаясь, что коллеги раньше завершат дистилляцию навыков и миграцию в агенты; инвесторы не осмеливаются остановиться, опасаясь пропустить следующую парадигму-победителя. В результате все знают, что чрезмерное соревнование, чрезмерное использование токенов и тревога могут быть не оптимальными решениями, но рациональный выбор каждого субъекта — продолжать ускоряться.

Вчера прочитал статью «Все в токенах — максимизация, гонка вооружений, в которой никто не осмеливается остановиться», — это заметка партнера Five Sources Capital Мэн Синя о Кремниевой долине, которая не просто обзор, а образец перехода состояния AI мира: это не просто наблюдение за Кремниевой долиной, а документирование переходного периода, когда AI переходит от «инструментальной эффективности» к «замещению производственных функций / переписыванию организационной структуры / разрушению системы оценки / вызову социального договора». В статье повторяется ключевое слово «не успевает»: YC не успевает, правила безопасности компаний не успевают, бюджет токенов не успевает, управление xAI не успевает, исследователи не успевают, вычислительные мощности / электросети / дата-центры не успевают, рамки оценки DCF не успевают, социально-психологическая устойчивость тоже не успевает.

Сцена, описанная в статье, — это хроника перехода AI из «революции приложений» в «революцию производственных функций»: AI уже не просто инструмент в софтверной индустрии, а становится источником совместных возмущений в производственных функциях предприятий, структуре талантов, конечной оценке, капитальных расходах и социальном порядке.

Самое важное в статье — не отдельные анекдоты, а то, что она раскрывает переключение состояния:

Ключевое состояние — не «AI очень силен», а: старые системы, старые организации, старые оценки, старые должности, старый ритм венчурных инвестиций — всё это создано для мира с низкой скоростью; в AI-мире, где происходят недельные изменения, возникает системное несоответствие. Если перенести это в таблицу миграции AI-мира:

Самый важный сигнал — AI уже не просто «обновление программных функций», а переписывает производственные функции предприятий. Но оно еще не полностью стабильно, потому что oncall-агенты неудобны, PMF не синхронизирован, расходы на токены и рост доходов имеют большие потери трансформации.

Самое главное открытие: Token-maxxing ≠ реализация производительности

Автор задает вопрос командам, утверждающим «эффективность выросла в 100 раз»:

Реально ли выросли доходы в 100 раз при такой эффективности?

Очевидный ответ — нет. В статье отмечается, что многие команды действительно сделали больше, но это не привело к синхронному достижению PMF или 100-кратного роста доходов.

Это можно представить как новый показатель:

TTCR: Коэффициент преобразования токенов в правду (Token-to-Truth Conversion Rate)

то есть:

расход токенов → продуктовые возможности → ценность для пользователя → конверсия в доход / валовую прибыль / удержание / оценку.

Многие компании сейчас делают только следующее:

Token Burn ↑↑

Feature Output ↑

PMF ?

Доход ↑ ограниченно

Мощь ?

Оценка ?

Это означает:

В будущем нельзя смотреть только на внедрение AI, нужно смотреть на его поглощение. То есть, действительно ли бизнес интегрировал AI в свою цепочку, а не просто сжигает токены на upstream-модели и поставщиков вычислительных мощностей.

Все соревнуются, все боятся отставания, все боятся быть вытесненными.

Это гонка без видимого конца.

Это порождено глубоко укорененной в человеческой генетике тревогой о неопределенности будущего, поэтому все не смеют остановиться, иначе тревога не уйдет. Сейчас я замечаю, что многие вокруг начинают испытывать немного нигилизма — это гонка без видимого конца.

И это не просто обычная тревога.

Это «открытая конечная тревога» эпохи ИИ: впервые человек сталкивается с возможностью постоянного самоускорения, постоянного сжатия старого порядка, но без ясной конечной точки технологического скачка. Это полностью совпадает с повторяющимся в статье «не успевает»: YC не успевает, правила безопасности не успевают, инженеры не успевают, исследователи не успевают, рамки оценки не успевают, социальное психологическое давление тоже не успевает.

Самое глубокое: это связано с генетической страхом перед «неопределенным будущим»

Человеческий мозг не предназначен для «открытых экспоненциальных изменений». Наши предки сталкивались с рисками:

Есть ли сегодня еда?

Близко ли хищники?

Бросит ли племя меня?

Пройдет ли зима?

Эти риски, хоть и страшные, обычно имеют границы.

Риски эпохи ИИ — иные:

Мои навыки могут быть заменены?

Моя индустрия исчезнет?

Моя оценка активов станет недействительной?

Моему ребенку нужен человек в мире, который меняется?

Стоит ли вкладывать в развитие сейчас, чтобы через три года было что-то значимое?

Это не один риск, а нестабильность самой модели мира.

Поэтому мозг человека входит в постоянный режим сканирования:

Это не потому, что он видит опасность, а потому, что не знает, откуда она придет.

Это мучительнее, чем известные опасности.

Почему все «не осмеливаются остановиться»?

Потому что нынешняя гонка — типичная «дилемма заключенного» + гонка вооружений + борьба за идентичность. Рациональный человек может знать:

«Мне нужно отдохнуть, подумать, дождаться ясности.»

Но когда он видит, что другие продолжают бежать:

другие используют Claude Code

другие запускают 10 агентов

другие каждый день выпускают новые продукты

другие привлекают финансирование

другие сокращают штаты и повышают эффективность

другие максимизируют токены

другие учатся новым инструментам

другие переписывают workflow

его психологическая система автоматически интерпретирует: «Если я остановлюсь, меня обгонят». Поэтому это не страсть к прогрессу, а страх — движет вперед. Никто не осмеливается остановиться, потому что это очень важно. Это показывает, что нынешняя AI-гонка уже не просто возможность, а вызвана тревогой.

Это классическая многослойная дилемма заключенного: в эпоху AI — не два участника, а многоуровневая структура: компания против компании, сотрудник против сотрудника, инвестор против инвестора, страна против страны, модельная компания против модельной компании, стартап против стартапа.

На каждом уровне повторяется одна и та же структура:

Итак, главный парадокс:

Все знают, что замедление, обдумывание и организация могут быть полезнее; но если другие не замедляются, я не могу.

Это — дилемма заключенного.

На уровне компании: не AI-native — умрет, AI-native — тоже может сгореть

Рассмотрим матрицу выгод компании:

Итак, рациональный выбор — не зависимо от того, соревнуются ли другие, — это «все равно соревноваться». Это доминирующая стратегия.

Но общий результат индустрии:

Token burn ↑

Расходы на AI-инструменты ↑

Повторное строительство ↑

Отсрочка правил безопасности ↑

Тревога сотрудников ↑

Ускорение сокращений ↑

Реальный PMF не обязательно синхронен ↑

То есть, на уровне компаний формируется гонка AI-native.

Самое жесткое — компании, которые не соревнуются, могут быть вытеснены; но даже соревнуюсь, не обязательно выиграть, потому что связь между инвестициями в AI и коммерческими результатами — нелинейна.

AI adoption ≠ AI absorption

Token spend ≠ рост доходов

Agent count ≠ PMF

Кодовая продукция ≠ бизнес-истина

AI-native — это не легитимность seat, а поглощение AI.

На уровне сотрудников: не учить AI — значит быть замененным

Учить AI — значит тренировать машину, которая может заменить тебя

Это еще более жесткая дилемма.

Поэтому сотрудники приходят к тому же выводу: «Я не могу остановиться». Но чем больше они усиливают AI-обучение, тем больше помогают компании выполнить две задачи:

  1. Сделать свой рабочий процесс явным

  2. Превратить свои навыки в копируемые skill / agent / шаблон

Это — самое жесткое:

Чтобы избежать замены AI, сотрудник должен использовать AI для повышения себя; но процесс повышения себя может ускорить системную замену.

Это не просто внутреннее соревнование, а самодистилляционная гонка.

Раньше сотрудники соревновались в:

переработках, результатах, образовании, опыте, связях.

Теперь — в:

кто лучше промптит

кто лучше управляет агентами

кто быстрее создает workflow

кто быстрее превращает опыт в AI-навык

кто один справляется с задачами трех человек

Но когда один человек делает работу трех, компания задается вопросом: «Зачем мне три человека?» В итоге рациональные усилия превращаются в коллективное сжатие должностей.

Глубочайший парадокс: AI превращает «усилия» в нестабильный актив

Раньше усилия имели относительную стабильную сложность:

учишь навык

→ накапливаешь опыт

→ повышаешь редкость

→ получаешь доход / статус / безопасность

Теперь цепочка выглядит так:

учишь навык

→ AI быстро поглощает навык

→ редкость падает

→ нужно учить следующий навык

→ снова поглощается

Многие ощущают пустоту именно здесь:

не потому, что не хотят стараться, а потому, что не знают, куда деть свои усилия.

Если полураспад навыков сокращается, психика меняется:

Это — причина, почему многие чувствуют пустоту. Не потому, что ленивы, а потому, что ощущают:

они играют в игру без сохранений, без финальной линии, без стабильных правил подсчета.

Роль инвесторов: не инвестировать в AI — значит проиграть

Или инвестировать в AI — тоже рискованно.

Поэтому доминирующая стратегия инвестора —:

участвовать в AI, но не знать, кто выиграет, а кто — пузырь.

Это приводит к:

высокой оценке neo lab

конкуренции за AI-инфраструктуру

избыточной гонке агентов

продажам SaaS-компаний

быстрой миграции капитала

отвязыванию оценочных рамок

Это — тоже дилемма заключенного: каждый фонд знает, что многие AI-проекты — нулевые, но не инвестировать — значит пропустить рост с нуля до сотни. Поэтому инвестиции в AI — не из-за уверенности, а из-за страха пропустить. Аналогично, сотрудники «не учат AI — будут тревожиться», компании «не соревнуются — будут тревожиться».

На уровне государства: AI — это национальная дилемма заключенного

Между странами тоже так.

Поэтому никто не осмеливается остановиться. Даже зная о рисках: безопасность AI, занятость, энергетика, социальное расслоение, риск выхода модели из-под контроля. Но если один продолжает ускоряться, остальные не могут снизить темп. Это — причина, почему безопасность AI трудно решить только моральными средствами.

Это — глобальная проблема координации.

Это не оптимизм, а «страховой ускоритель» (fear-based acceleration).

В традиционной технологической эпохе люди бежали к богатству, потому что видели возможности. Сейчас ситуация сложнее. Многие бегут не потому, что верят в светлое будущее, а потому, что:

остановиться страшнее.

Это — то, что я называю: Fear-Based Acceleration. Его психологическая структура такова: ↑ неопределенность → ↓ контроль → ↑ тревога → использование действий для снятия тревоги → чем больше действий, тем быстрее мир → чем быстрее мир, тем выше неопределенность → тревога продолжает расти. Это — самоподдерживающаяся цепочка. Поэтому многие кажутся очень занятыми, очень AI-native, очень эффективными, но в основе — не уверенность, а страх.

Почему возникает нигилизм?

Потому что AI не только заменяет задачи, но и подрывает три более глубокие вещи:

Первое — смысл усилий подорван

Раньше люди верили: учишь навык → накапливаешь опыт → создаешь профессиональный барьер → получаешь стабильный доход.

Теперь эта цепочка разорвана.

Люди задаются вопросами:

А что, если то, чему я учился, через два года станет бесполезным? Моя десятилетняя экспертиза — не будет ли она сжата агентским workflow? Я стараюсь идти вперед — это приближение к будущему или погоня за недостижимой целью?

Когда «усилия → результат» — неустойчиво, возникает ощущение пустоты.

Второе — идентичность подорвана

Многие ценности связаны с профессиональной ролью:

Я — инженер

Я — исследователь

Я — инвестор

Я — дизайнер

Я — продавец

Я — аналитик

Но AI разбирает эти роли на составляющие:

Какие задачи автоматизировать?

Какие решения требуют человека?

Какие навыки обесцениваются?

Какие умения можно дистиллировать в skill?

Это вызывает глубокое ощущение потери:

Не то, что я больше не умею работать, а то, что «кто я» — становится неопределенным.

Третье — нарратив о будущем подорван

Людям нужен рассказ о будущем. Раньше он звучал так:

Учеба

Работа

Покупка жилья

Повышение

Накопление богатства

Воспитание детей

Выход на пенсию

Но эпоха ИИ разрушила этот сценарий. Сейчас многие думают:

Мир так быстро меняется, что я не могу смоделировать себя через пять лет. Если будущее невозможно предсказать, зачем тогда стараться сейчас?

Это — источник нигилизма. Не потому, что люди безразличны, а потому, что они не могут найти стабильную систему смыслов.

«Глазами закрыты, бежим» — это суть: нет конечной точки, нет судьи, нет паузы.

Самое страшное в этой гонке — не скорость, а отсутствие ясной конечной точки. В эпоху интернета было относительно ясно:

Кто завладеет пользователями

Кто получит трафик

Кто создаст сетевой эффект

Кто выйдет на биржу

Кто получит прибыль

Но в эпоху AI — конечная точка не ясна:

AGI — это финал?

ASI — это финал?

Самообучение моделей — это финал?

Агенты заменят белых воротничков — это финал?

Истощение вычислительных ресурсов — это финал?

Регуляция — это финал?

Общественный откат — это финал?

Никто не знает. Поэтому все бегут не к цели, а чтобы не быть вытесненными. Вот в чем ужас «слепой гонки»:

Ты не видишь конца, но слышишь шаги всех вокруг.

Это — не просто эмоции, а макросостояние, влияющее на:

В инвестициях: это ощущение нигилизма — сигнал

Это не просто шум, а сигнал социального признания / рефлексии.

Когда многие начинают переходить от «восторга» к «пустоте», — это знак, что AI входит во вторую фазу:

Первая — удивление

Вторая — погоня

Третья — тревога

Четвертая — обратная реакция

Пятая — перестройка системы

Сейчас, скорее всего, мы находимся между второй и третьей фазой, а в некоторых местах уже — в четвертой.

Наратив продолжает усиливаться,

потому что никто не осмеливается остановиться, капитал, компании и люди продолжают вкладывать. Это поддерживает спрос на AI-инфраструктуру, вычислительные мощности, расход токенов и инструменты агентов.

Но пузырь и чрезмерные инвестиции идут рука об руку,

потому что многие действия не основаны на рациональной отдаче, а вызваны тревогой.

Появляются:

Бесполезные агенты

Чрезмерное расходование токенов

Повторное создание стартапов

Распространение AI-оберток

Высокие оценки neo labs

Компании, позиционирующие себя как AI-native ради имиджа

Общественный откат становится все важнее.

Когда тревога распространяется с Кремниевой долины на обычных офисных работников, инженеров, исследователей, аутсорсеров, AI перестает быть только технологической темой и превращается в политическую.

Это вызывает:

Сопротивление дата-центров

Регулирование увольнений по AI

Обсуждение перераспределения налогов

Регулирование безопасности моделей

Антимонопольные меры

Политика защиты занятости

Для человека:

Истинное решение — не «бежать быстрее», а восстановить ощущение контроля.

В таком мире слепое ускорение только усиливает пустоту. Без рамки оценки, чем быстрее бежишь, тем больше чувствуешь, что тебя ведут за собой.

Лучше всего менять вопрос с:

«Как не отстать от AI?»

на:

«Как построить постоянно обновляемую модель мира?»

Не предсказывая каждое будущее, а создавая:

распознавание состояний

набор гипотез

обновление доказательств

механизм опровержения

маршруты действий

дисциплину позиций

методологическую обратную связь

Иными словами:

Не устранять неопределенность, а структурировать ее.

Это очень важно. Тревога возникает из-за невозможности моделировать. А ценность методологии — в том, чтобы сделать непредсказуемый мир частично управляемым.

Последний уровень: эта гонка — это проверка «духовной структуры»

Самая редкая способность в эпоху ИИ — не умение пользоваться инструментами,

а:

умение сохранять суждения в условиях неопределенности

умение держать ритм в коллективной гонке

умение не потерять субъектность под технологическим давлением

умение признавать перемены и не позволять им поглотить себя

умение учиться постоянно, не превращаясь в тревожную машину

Это — настоящая дифференциация будущего. Обычные люди вынуждены войти в:

режим погоня за инструментами.

А сильнейшие — в:

режим обновления модели мира.

Еще более сильные — в:

режим распознавания ограничений + захвата ценностей + обновления методов.

Это — главный смысл построения системы на базе AI.

Максимальный психологический шок эпохи ИИ — это не замена человека на машину, а то, что человек впервые сталкивается с системой без ясной конечной точки, без стабильных навыков, без четкой оценки конечной стоимости, без кнопки паузы. Поэтому действия меняются с поиска возможностей на снижение тревоги, а максимизация токенов — с инструмента эффективности в средство психологической стабилизации, а нигилизм — это промежуточное состояние между разрушением старых смыслов и отсутствием новых.

Итак, каждый, каждая компания, каждый инвестор вынуждены делать один и тот же выбор:

Я не знаю, куда бегу, но знаю, что остановиться — опаснее.

Это — коллективная психологическая структура эпохи ИИ. Она не просто оптимизм или пузырь, а порождение неопределенности, конкуренции, страха за идентичность, давления капитала и самоускорения технологий — открытая дилемма финала.

Значение в том, что, бегая, чтобы снизить тревогу, мы можем структурировать свои суждения, чтобы снизить тревогу; другие вынуждены соревноваться — мы можем распознать ограничения, захватить ценности, определить конечную точку и противодействовать обратным эффектам.

Истинное решение — не слепо бежать, а строить структурированную модель мира, заменяющую инстинктивную тревогу, обновлять доказательства вместо коллективной паники, соблюдать ритм и дисциплину вместо слепого бега.

На самом деле, не стоит особо тревожиться, ведь все сталкиваются с одинаковой ситуацией, и все — в одной лодке.

Конец.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить