2月ный взрыв! Объем вызовов AI в Китае впервые превзошел США Четыре крупные модели доминируют в мировом топ-5 Требования к отечественной вычислительной мощности переживают экспоненциальный рост

В феврале в Китае произошел взрывной рост количества вызовов моделей ИИ, впервые превысив показатели США.

По данным крупнейшей в мире платформы агрегирования API моделей ИИ OpenRouter, с 9 по 15 число эта неделя, китайские модели с объемом вызовов 4,12 трлн токенов впервые обошли американские модели с 2,94 трлн токенов за тот же период.

На следующей неделе, с 16 по 22 число, объем вызовов китайских моделей еще больше вырос до 5,16 трлн токенов**, что за три недели составляет рост на 127%,** в то время как вызовы американских моделей за тот же период снизились до 2,7 трлн токенов. Одновременно, в топ-5 моделей по глобальному рейтингу четыре позиции занимают китайские модели, и эта мощная динамика роста не зависит от одного хитового продукта, а является результатом коллективного подъема китайских разработчиков ИИ.

Токен — это минимальная единица обработки текста моделью ИИ. В отличие от количества пользователей, объем вызовов токенов — это более точный показатель реальной интенсивности использования модели, приверженности пользователей и коммерческой ценности.

Китайские производители моделей ИИ, благодаря быстрой итерации и низким затратам, захватывают мировой рынок, а спрос на отечественные вычислительные мощности растет экспоненциально.

Перестановка в рейтинге: китайские токеновые вызовы впервые превзошли США, четыре крупные модели лидируют

Платформа OpenRouter объединяет сотни крупных языковых моделей со всего мира и насчитывает более 5 миллионов разработчиков — это крупнейшая в мире платформа агрегирования API моделей ИИ. Поэтому данные о вызовах API считаются наиболее достоверным индикатором глобальных трендов внедрения ИИ, поскольку они напрямую отражают выбор разработчиков, их “голос ногами”, и показывают популярность и конкурентоспособность моделей в реальных приложениях.

Стоит отметить, что основная часть пользователей этой платформы — зарубежные разработчики, где доля американских пользователей достигает 47,17%, а китайских — всего 6,01%, что делает рейтинг более объективным отражением реальной привлекательности китайских моделей ИИ на мировом рынке.

Журналисты “Ежедневной экономической газеты” (далее — репортеры “Мэйцзинь”) проанализировали данные OpenRouter и обнаружили, что за последний год глобальный вызов токенов крупных моделей ИИ пережил впечатляющий взрывной рост. За неделю с 3 по 9 марта 2025 года, топ-10 моделей платформы имели всего 1,24 трлн вызовов токенов. К февралю 2026 года эта цифра взлетела до 13,95 трлн токенов — более чем в 10 раз за менее чем год.

В 2025 году американские модели были основным драйвером роста рынка, их недельный объем вызовов токенов составлял почти 70% от общего топ-10 моделей платформы, тогда как доля китайских моделей — менее 20%. Однако, в 2026 году темпы роста американских моделей начали замедляться, а китайские модели вошли в режим “бешеного скачка”.

Данные показывают, что в первую неделю февраля 2026 года (с 2 по 8 число) китайские модели достигли недельного объема вызовов 2,27 трлн токенов, посылая мощный сигнал о своих амбициях.

Всего через неделю, с 9 по 15 февраля, китайские модели с вызовами 4,12 трлн токенов впервые обошли американские модели с 2,94 трлн токенов, достигнув исторического превосходства.

Этот тренд не остановился, и на следующей неделе, с 16 по 22 февраля, объем вызовов китайских моделей вырос до 5,16 трлн токенов, что за три недели составляет рост на 127%, расширяя лидерство еще больше.

Эта мощная динамика роста не зависит от одного популярного продукта, а является результатом коллективного подъема китайских компаний-разработчиков ИИ.

Рейтинговый список за неделю с 16 по 22 февраля 2026 года показывает, что четыре из пяти ведущих моделей по объему вызовов на платформе произведены китайскими компаниями: MiniMax M2.5, Kimi K2.5 (от Moon Shadow), GLM-5 (от Zhipu AI) и V3.2 (от DeepSeek). Эти четыре модели вместе обеспечили 85,7% общего объема вызовов топ-5.

Конкретно, модель M2.5 от MiniMax, выпущенная 13 февраля 2026 года, за менее чем неделю после запуска быстро заняла первое место по недельным вызовам. В неделю с 9 по 15 февраля, из общего роста вызовов платформы в 3,21 трлн токенов, модель M2.5 обеспечила 1,44 трлн — впечатляющий вклад.

Модель Kimi K2.5 от Moon Shadow, выпущенная 27 января, благодаря нативной мультимодальной архитектуре и мощной параллельной обработке “агентов”, показала последовательный рост вызовов. Она способна управлять до 100 “агентов-двойников”, что увеличивает эффективность обработки сложных задач в 3–10 раз. По сообщениям СМИ, за менее чем месяц после выпуска Kimi K2.5 её совокупный доход уже превысил доход за весь 2025 год, что обусловлено ростом платных пользователей и API-вызовов по всему миру.

Флагманская модель Zhipu AI — GLM-5, запущенная 12 февраля, благодаря сверхдлинному контекстному окну в 200 тысяч токенов и глубокой оптимизации для задач с длинными цепочками, быстро выросла в числе пользователей и вызовах, достигнув 0,8 трлн токенов уже в первую неделю после запуска.

За последний год, несмотря на то, что модель “Qianwen” от Alibaba не часто попадала в топы, совместный отчет a16z и OpenRouter показал, что её серия моделей по суммарному вызову токенов занимает второе место в мире с 5,59 трлн токенов, уступая только DeepSeek с 14,37 трлн.

Исследовательская компания Frost & Sullivan в своем отчете отмечает, что на рынке B2B крупных моделей ИИ в Китае во второй половине 2025 года доля ежедневных вызовов токенов серии Qwen достигла 32,1%, что почти вдвое превышает показатель первой половины года (17,7%) и значительно опережает ByteDance (21,3%) и DeepSeek (18,4%), расширяя лидерство.

Что касается структуры рынка крупных моделей ИИ в Китае, профессор Ху Янпин из Шанхайского финансового университета в интервью “Мэйцзинь” высказал концепцию “Китайского ИИ-альянса”.

Он считает, что концентрация рынка не обязательно должна быть высокой, наличие нескольких ведущих компаний, формирующих широкое технологическое сообщество, — это благо для конкуренции, инноваций и развития кадрового потенциала, а также способствует формированию кластерных преимуществ в конкуренции между Китаем и США.

Известный венчурный инвестор, партнер Andreessen Horowitz (a16z) Мартин Касадо отметил, что сейчас в Кремниевой долине около 80% стартапов в области ИИ используют открытые модели китайского происхождения для своих презентаций и разработки.

Конкурентоспособность: почему стоимость токена в Китае в 10 раз ниже, чем в США?

Китайские модели смогли за короткое время захватить внимание разработчиков по всему миру, не только благодаря высокой производительности, сравнимой или превосходящей международные топовые модели, но и благодаря крайне конкурентоспособной стоимости.

На примере цен, опубликованных на платформе OpenRouter, очевидна ценовая преимущество Китая.

В сегменте обработки входных данных (Input), модели MiniMax M2.5 и Zhipu GLM-5 стоят по 0,3 доллара за миллион токенов. Для сравнения, зарубежный аналог — Claude Opus 4.6 — стоит до 5 долларов за миллион токенов, что примерно в 16,7 раз дороже.

В сегменте генерации выходных данных (Output), разница еще более существенна. Стоимость вывода для MiniMax M2.5 — 1,1 доллара за миллион токенов, для Zhipu GLM-5 — 2,55 доллара, а Claude Opus 4.6 — до 25 долларов, что примерно в 22,7 и 9,8 раз дороже соответственно.

Такие огромные ценовые различия напрямую влияют на экономические решения разработчиков при выборе API.

Эта разница в стоимости в первую очередь обусловлена архитектурными инновациями на уровне алгоритмов.

Директор по исследованиям Frost & Sullivan в Китае Ли Цин в интервью “Мэйцзинь” отметил, что одним из ключевых факторов снижения стоимости вычислений является архитектура “смесь экспертов” (Mixture-of-Experts, MoE). Уже сейчас модели, такие как DeepSeek, а также Alibaba’s Tongyi Qianwen 3.5-Plus, широко используют архитектуру MoE.

Суть MoE в том, что большой модельный блок разбит на несколько меньших “экспертных сетей” и один “модуль управления” (гейт). Несмотря на то, что общее число параметров модели может достигать сотен миллиардов, что обеспечивает богатство знаний и потенциал модели, при выполнении конкретной задачи гейт определяет, какие эксперты активировать, и включает только небольшую часть из них.

Этот “вызываемый по мере необходимости” режим, в отличие от традиционных плотных моделей, где все параметры задействованы постоянно, значительно сокращает вычислительные ресурсы. По данным, использование MoE позволяет снизить потребление видеопамяти при выводе на 60%, а пропускную способность — увеличить в 19 раз. Это и есть основа снижения затрат.

Кроме архитектурных инноваций, китайские разработчики активно исследуют путь “вертикальной интеграции”: объединение верхнего уровня моделей, облачных инфраструктур и AI-чипов в единую систему для дальнейшего снижения стоимости каждого токена. В основе — глубокая совместная разработка аппаратных и программных компонентов, позволяющая решить проблему совместимости и максимально эффективно использовать вычислительные ресурсы.

Например, система “Tongyi-Yun-Chip” от Alibaba — пример такой вертикальной интеграции, которая за счет оптимизации распределения ресурсов позволяет значительно снизить инфраструктурные издержки. Такой системный подход позволяет максимально эффективно использовать аппаратные ресурсы и снижать себестоимость токена.

В своем отчете JPMorgan прогнозирует, что с 2025 по 2030 год ежегодный рост потребления токенов в Китае составит 330%, и за 5 лет объем вырастет в 370 раз.

Качественный скачок: токены превращаются из “интернет-трафика”, почти нулевой по стоимости, в “топливо” эпохи ИИ

Экспоненциальный рост потребления токенов кажется на первый взгляд ростом пользовательской базы и времени использования, но за этим стоит более глубокий драйвер — кардинальное изменение модели использования ИИ. ИИ переходит от простого “ответчика” и “разговорного бота” к инструменту, активно участвующему в рабочих процессах и решающему сложные задачи.

Недавний отчет “Мэйцзинь” вводит понятие “инфляции токенов”. Это не означает, что токены становятся дороже, а что структура их расхода в единицу времени и на одного пользователя меняется системно. В отчете выделяют три ключевых тренда.

Во-первых, основные потребности пользователей смещаются с поверхностных “вопрос-ответ” к глубокому “деланию”: все больше используют ИИ для переписывания кода, редактирования файлов, генерации документов и тестирования. Программные сценарии по своей природе требуют “длинного контекста”, многократных итераций и большого объема вывода, что значительно расходует токены.

Во-вторых, возникновение и распространение технологий AI-агентов усиливает расход токенов. Агент планирует, ищет, выполняет, рефлексирует, многократно вызывает модель, и расход токенов на каждом шаге накапливается.

В-третьих, увеличивается интенсивность вычислений. Более глубокое мышление и длинные цепочки логики требуют больше токенов для вывода и промежуточных данных. Но для разработчиков это зачастую означает более высокий уровень успеха и меньше переделок, и они готовы “вкладывать больше токенов ради повышения эффективности”.

Все эти изменения превращают токен из “трафика” с почти нулевой маржой в “топливо” для выполнения производственных задач.

Это совпадает с мнением ведущих мировых производителей чипов. Генеральный директор Nvidia Дженсен Хуанг 26 февраля на отчете о квартальной прибыли подчеркнул: “Вычисления — это доход”, “Рассуждения — это доход”. Он отметил, что без вычислительных мощностей невозможно генерировать токены, а без токенов — невозможно получать доход. В эпоху ИИ производительность рассуждений напрямую определяет доходность клиентов, а сама суть рассуждений — в эффективном создании коммерциализируемых токенов. В условиях растущих ограничений по электроэнергии в дата-центрах “производительность/ватт” стала ключевым показателем эффективности и доходности ИИ-сервисов.

Ли Цин заявил “Мэйцзинь”, что бизнес-модель ИИ-услуг переходит от простого “по количеству” к гибридной “топливо + результат”. С одной стороны, цена токена как “топлива” будет снижаться благодаря технологическому прогрессу и масштабам. С другой — по мере превращения ИИ из “ответчика” в “производственный инструмент”, компании будут готовы платить за конкретные “результаты”, что стимулирует развитие подписных бизнес-моделей.

Ли Цин также предсказала, что в будущем цены на ИИ-услуги станут более гибкими и индивидуализированными. Она отметила, что эпоха агентов означает, что задачи будут очень разными по сложности, и единая цена не сможет покрыть все сценарии. В будущем стоимость будет зависеть от вычислительных затрат, частоты вызовов, наличия многошаговых рассуждений или планирования — формирующих высокие издержки операций, и многомерная, динамическая ценовая система станет доминирующей.

(Источник: “Ежедневная экономическая газета”)

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить