GPT-5.5: 10 больших секретов, которые вы не заметили

Автор: Кремниевая долина, Алан Уокер

Все, что говорит OpenAI, и то, что они не говорят — новые модели, Code Red, Super App, а также истинная стратегия AI-компании.

Сегодня утром солнце на Калифорнийской улице было чуть ленивее обычного.

Первая волна посетителей Zombie Café разошлась, вторая еще не пришла, старомодная кофемолка за барной стойкой крутится без дела, бариста медленно протирает стаканы. На экране телефона — новости OpenAI.

Несколько часов назад, в утренние часы по тихоокеанскому времени, была выпущена GPT-5.5.

Начнем с основных фактов

Заголовок официального блога OpenAI прост и скромен —

“Introducing GPT-5.5: a new class of intelligence for real work and powering agents.”

Новое поколение интеллекта, созданное для реальной работы, для агентов.

Внутреннее кодовое имя этой модели — “Spud” (картошка). Согласно статье The Next Web, это первый полностью переобученный базовый модель с GPT-4.5 — после GPT-4.5 OpenAI впервые с нуля обучила базовую модель. Те GPT-5.0, 5.1, 5.2, 5.3, 5.3-Codex, 5.4, 5.4-Cyber — все это модификации, сделанные на одном и том же старом базовом ядре после обучения. Это первый по-настоящему новый фундамент.

Сегодня доступны только две платформы — ChatGPT и Codex. API отложен, OpenAI говорит “очень скоро”. Доступные тарифы — Plus, Pro, Business, Enterprise. GPT-5.5 Pro (усиленная версия) ограничена Pro и выше.

Вот те показатели, которые OpenAI хочет, чтобы вы увидели —

Индекс искусственного интеллекта — OpenAI с 3 баллами лидирует, сломав равенство трех компаний. По данным VentureBeat: GPT-5.5 занимает 14 позиций в публичных benchmark, достигая SOTA, Claude Opus 4.7 — 4 позиции, Gemini 3.1 Pro — 2 позиции.

Это официальная позиция. Сегодня СМИ тоже пишут примерно то же самое.

Но, сидя перед третьей чашкой кофе в Zombie Café, просматривая system card OpenAI, X-тред Brockmana, пресс-конференцию Pachocki и реакции всей AI-твиттер-среды —

Те, что OpenAI не сказал, — именно они придают смысл этой публикации.

10 секретов.

  1. “Spud” — первый по-настоящему переобученный после GPT-4.5 — за этот год не было новых базовых моделей

Этот нюанс скрыт в статье The Next Web, коротко упомянут в английском оригинале, ни один китайский медиа не выделил его.

Переведем —

За последние 14 месяцев OpenAI выпустила GPT-5, 5.1, 5.2, 5.3, 5.3-Codex, 5.4, 5.4-Cyber, 5.4-Codex. Каждая версия сопровождалась обновлением benchmark, пресс-брифингом и твитами Altman. Впечатление —

OpenAI безумно итеративно.

Шесть промежуточных релизов, каждый с нововведениями, но все на одном и том же базовом ядре.

Заголовок статьи Fortune сегодня точно передает суть — “Запуски AI-моделей начинают походить на обновления программного обеспечения.” Brockman сам признался на пресс-конференции, что так оно и есть.

Это признание звучит как извинение, но на самом деле — прикрытие. За этот год OpenAI выпустила только один действительно новый модель — сегодня. Все предыдущие шесть — это просто переработки на старом ядре, чтобы отвлечь внимание публики и заставить конкурентов думать, что OpenAI не отстает, одновременно вкладывая все вычислительные ресурсы, данные и инженеров в обучение новой базы “Spud”.

Когда результаты появились — Claude Opus 4.7, выпущенный на прошлой неделе, уже уступил 14 benchmark. Это не случайность — это стратегия.

  1. Эта модель сама настроила свои серверы — маховик уже запущен

В официальном блоге OpenAI есть технический момент, который почти все СМИ пропустили —

Jake Handy из Handy AI раскрыл его смысл —

Читая медленно.

Перед релизом модель анализировала реальные потоки трафика в течение нескольких недель, переписала алгоритмы разделения и балансировки нагрузки, повысив скорость сервиса на 20%.

Модель оптимизирует инфраструктуру для своей работы.

Раньше — инженеры обучали модель, разворачивали, оптимизировали, тестировали и запускали. Каждый шаг — узкое место, дорогостоящее и долгосрочное.

Теперь — модель помогает инженерам обучать следующую версию, оптимизировать инфраструктуру, отлаживать и тестировать — роль человека сокращается с “исполнителя” до “ревизора”.

Это было предсказано при выпуске GPT-5.3-Codex, когда Altman в X сказал —

Многие восприняли это как маркетинговую фразу. Сегодня — это подтверждено.

Механизм таков — предыдущая версия помогает следующей улучшать R&D → следующая итерация становится быстрее → еще более быстрая следующая версия помогает следующей за ней — и так по экспоненте. Как только маховик запущен, это плохие новости для Anthropic и Google — их инженерные команды, несмотря на мощь, вынуждены соревноваться с “инженерами OpenAI + предыдущая модель”.

  1. Отсрочка API — не технический вопрос, а бизнес-стратегия

GPT-5.5 сегодня доступна только в ChatGPT и Codex. API — OpenAI обещает “очень скоро”.

Что означает “очень скоро” в их понимании, видно из истории —

  • GPT-5.3-Codex: выпущен в феврале, API — “скоро” — фактически через три недели.

  • GPT-Rosalind (специализированная модель для биологических наук): апрель, пока только Trusted Access, публичный API — нет.

  • Atlas browser: с момента релиза — API никогда не был публичным.

Значит, “очень скоро” — это стратегия: сначала оставить корпоративных клиентов внутри экосистемы ChatGPT и Codex, задерживая открытие API.

За этим стоит Code Red — чрезвычайная ситуация для OpenAI. В статье TNW цитата —

ARR Anthropic вырос с $9B до 30 миллиардов долларов, за 14 месяцев более чем утроился, что выглядит как рост SaaS-компании, а не AI. В то время как OpenAI отступает на рынке B2B.

Для OpenAI GPT-5.5 — это оружие для возвращения корпоративного рынка. Но как его применить — важнее, чем само оружие.

Логика проста — чтобы использовать GPT-5.5 сейчас, есть только один путь: подписка на ChatGPT Business или Enterprise. API? “Очень скоро”. В этот промежуток CIO, колеблющийся между Anthropic и OpenAI, примет решение, и оно станет зависимым. В кругах CIO слова важнее любых benchmark. Фраза “hallucination resistance” — ценна для долгосрочных контрактов.

CIO банка Bank of New York, Leigh-Ann Russell, уже выбрала сторону —

В кругах CIO слова важнее любых benchmark. Фраза “hallucination resistance” — ценна для долгосрочных контрактов.

  1. Удвоение цен и сокращение токенов — OpenAI считает свою прибыль

Цены — четко:

Прямое удвоение. The Decoder прямо пишет —

“OpenAI фактически удвоила входную цену своего флагманского модели по сравнению с предыдущим поколением.”

На первый взгляд — цена выросла в два раза. Но в материалах OpenAI есть еще одно число —

Если сложить оба, кто выигрывает?

Настоящая цель повышения цен — не собрать больше денег с пользователей, а дать OpenAI больше свободы в структуре своей прибыли.

Контекст — в прошлом году The Information сообщила, что убытки OpenAI за 2024 год превысили 5 миллиардов долларов, а в 2025-м убытки только растут, компания тратит более 1 миллиарда долларов в день на вычислительные ресурсы. Эти ресурсы — кредиты от Microsoft, Oracle, Nvidia, — будущие обязательства на сумму свыше триллиона долларов. Это не типичный способ финансирования исследовательской лаборатории — это компания, которая должна доказать свою прибыльность на этапе pre-profit.

Ценообразование GPT-5.5 — это первый шаг в переходе от стадии привлечения трафика к стадии получения прибыли. И более хитрый ход — “эффективность токенов выросла”. Звучит как экономия для пользователя, а на самом деле — как сигнал инвесторам: маржа исправлена.

  1. Super App — это не Claude, а Microsoft, Google, Apple

Эту мысль все неправильно поняли.

Brockman дважды упомянул “super app” на пресс-конференции. Заголовок TechCrunch — “OpenAI выпускает GPT-5.5, приближая компанию к AI ‘super app’.” Восприятие: OpenAI подражает Claude Desktop от Anthropic.

Это частично верно, но важная часть — нет.

Настоящее предназначение Super App — заменить три основные платформы — ваш IDE, ваш браузер, ваш Office.

Структура Super App —

Fidji Simo — CEO OpenAI по приложениям — говорит прямо —

Это не для Anthropic. Это для Microsoft, Google, Apple.

Заменить традиционное программное обеспечение полностью.

Zen Van Riel в своем AI Engineer Blog точно сформулировал —


Это уже было в истории. В 1990-х — Netscape, хотя и хорошая, но Microsoft интегрировала IE в Windows, сделав браузер частью системы. Netscape исчезла. Сейчас OpenAI делает то же самое — объединяет инструменты, кодинг и браузинг в один суперприложение, чтобы пользователи не открывали отдельно IDE, браузер и Office.

6. Длинный контекст — это настоящее прорыв — все упустили

Все СМИ сегодня сосредоточены на Terminal-Bench 2.0 и SWE-Bench Pro — benchmarks для кодинга, легко превращающиеся в горячие темы.

Но важнейшие цифры — в длинном контексте, и о них почти никто не говорит.

Maximilian Schreiner из The Decoder — один из немногих, кто выделил этот показатель —

Переведем на язык инженеров —

MRCR измеряет, может ли модель в сверхдлинных документах найти и надежно запомнить несколько ключевых информационных точек. 36.6% → 74.0% — что это значит? — раньше при 1 миллионе токенов модель просто “притворялась”, при этом “забывала” по ходу. Теперь она действительно запоминает.

Это кардинально меняет влияние на агентский кодинг —

Проекты типа Kubernetes, с миллионами строк кода, документацией и историей issues — легко помещаются в 1M токен. Раньше Codex при работе с длинными задачами мог обрабатывать только часть, и при полчаса рассуждений начинал “забывать”. Например, чтобы исправить гонки в модулях foo и bar, он мог помнить только один из них.

После GPT-5.5 — модель способна стабильно рассуждать по всему репозиторию на миллион токенов. Она действительно помнит.

Именно поэтому Terminal-Bench 2.0 вырос с 75.1% у GPT-5.4 до 82.7% у 5.5. Модель не только стала умнее — она стала стабильнее в памяти.

Claude Opus 4.7 по-прежнему лидирует в SWE-Bench Pro — 64.3% против 58.6%. Но SWE-Bench Pro — тест на исправление одной GitHub issue, небольшой масштаб. Terminal-Bench 2.0 — тест на выполнение полного рабочего процесса в командной строке, масштаб и длительность — большие.

Claude хорош в отдельных задачах. Но вся цепочка — за OpenAI. Инженеры покупают агента не для одного теста, а для всей цепочки.

  1. Новый benchmark Expert-SWE — OpenAI захватывает рынок агентских решений по ценам

OpenAI тихо запустила новый внутренний benchmark — Expert-SWE. GPT-5.5 там набрала 73.1%, превзойдя 68.5% у 5.4.

__

Это почти не обсуждается в технической прессе. Но важен не балл, а определение benchmark.

__

Медиана — человек-эксперт выполняет за 20 часов типовую задачу по кодингу.

Этот показатель выбран не случайно. 20 часов — примерно три рабочих дня, или один средний инженерский тикет — от требований до PR. OpenAI определяет, что такое “полная задача агента”.

Это выглядит как инструмент оценки технологий. Но на самом деле — бизнес-ход — переформулировка единицы ценообразования AI-продукта.

Теперь рынок AI — это не только аренда ресурсов (tokens), а результат работы — выполнение задач.

Это переход от оценки по ресурсам к оценке по результату.

Anthropic продолжает бороться за старый benchmark SWE-bench Verified, где Opus 4.7 — 87.6%. Но это тест на исправление небольших ошибок в Python — маленькая задача. OpenAI уже создает новую таблицу.

Кто задает benchmark — тот и диктует цену. Jake Handy из Handy AI отмечает: Expert-SWE — первый “по дням” кодинг-оценка от OpenAI, которая переводит индустрию с “одной задачи” на “один день работы инженера”.

  1. MCP Atlas — скрытая слабость OpenAI

В таблице benchmark есть скрытая цифра, которую официальные материалы не выделяют — если бы не Schreiner из The Decoder, большинство бы не заметили.

Почему это важно —

MCP (Model Context Protocol) — открытый протокол, запущенный Anthropic в конце 2024. Он решает проблему: как безопасно, надежно и совместимо вызывать внешние инструменты. Сейчас MCP — стандарт — Claude, Gemini, Cursor, VS Code, Codex его поддерживают.

MCP Atlas — тест, максимально приближающий к реальному использованию инструментов. GPT-5.5 — на дне — не потому, что модель плохая, а потому что MCP — протокол Anthropic.

Claude с самого начала обучалась по MCP. OpenAI — позже, и в этом есть слабость.

Этот показатель — ключ к пониманию всей стратегии OpenAI —


Стратегически, OpenAI не может позволить себе, чтобы протокол межплатформенного вызова инструментов определялся Anthropic. Поэтому они внутренне интегрируют tool-use в свою экосистему — встроенные инструменты Codex, web-агенты Atlas, встроенные коннекторы ChatGPT — создавая внутри “стен” собственную экосистему, чтобы MCP в их системе был не нужен.

MCP Atlas — не баг, а поле боя, которое нужно обходить.


  1. Trusted Access for Cyber — не безопасность, а бизнес-модель

В блоге OpenAI есть очень редкая фраза —

Компания прямо пишет, что пользователи могут “находить это раздражающим” — это не ошибка, а стратегия продукта. Признание неудобств — часть плана, чтобы сделать последующие решения более привлекательными.

Следующее решение — Trusted Access for Cyber (TAC) —

Обычные пользователи GPT-5.5 получат ограниченные возможности в области кибербезопасности, “некоторые могут считать это надоедливым”. Хотите полный доступ? Присоединяйтесь к TAC, подтвердите личность — станете defender (защитником).

Это — аналог KYC (Know Your Customer) в финансовой индустрии. OpenAI внедряет KYC в AI-рынок.

Структура —

CTO Palo Alto Networks, Lee Klarich, поддержал инициативу —

OpenAI также объявила о предоставлении $10M API credits сообществу cyber defender. Это маркетинговый расход, а не благотворительность.

Потенциальный масштаб — мировой рынок кибербезопасности превышает $200 млрд в год. Сейчас проникновение AI — однозначно в низком диапазоне. Если AI сможет автоматизировать penetration testing, обнаружение уязвимостей и реагирование на инциденты, то через 5 лет этот рынок может вырасти до 30-50%.

OpenAI захватывает этот сегмент, внедряя многоуровневые лицензии. Anthropic идет другим путем — Mythos не публикуется, только для стратегических партнеров (государств и спецслужб). Более закрытая, более элитная, но и меньшая по масштабу.

  1. Фраза Altman о “Texans” — это не шутка, а стратегия

Эту фразу стоит проследить назад — к февралю, когда в день релиза GPT-5.3-Codex Altman в X написал —

Большинство восприняли это как обычный tech bro-стиль. Мол, Altman критикует Anthropic.

Но это — стратегия.

Общая картина — две компании:


Статья Fortune показывает важное сравнение — ARR Anthropic — 30 млрд долларов, выше, чем у OpenAI, но у OpenAI 50 миллионов платных пользователей против примерно 3 миллионов у Anthropic.

Модели бизнеса — разные:

OpenAI (подобно Google): бесплатный трафик (ChatGPT free), массовая подписка (Plus $20), премиум (Pro $200, Enterprise). Основной барьер — масштаб и поведение пользователей. 900 млн активных пользователей в месяц — это недосягаемый уровень для конкурентов.

Anthropic (подобно Salesforce): корпоративный SaaS, крупные клиенты, высокая цена за клиента, лояльность — за счет глубокой интеграции и профессиональных решений. Высокий ARR — за счет высокой стоимости, а не количества клиентов.

Фраза Altman — о “differently-shaped problem” — означает, что цели OpenAI и Anthropic разные. OpenAI — нацелена на охват и частоту использования, а Anthropic — на ARR с каждого клиента.

Стратегия распространения GPT-5.5 подтверждает это:

  • Plus $20/мес — для массового трафика

  • Pro $200/мес — для платных пользователей

  • Business/Enterprise — для корпораций

  • API “скоро” — для конечных пользователей

  • бесплатная версия — для привлечения новых пользователей

Главное — сохранить совместимость с массовым рынком. OpenAI не отказывается от “массового” статуса.

Altman говорит о “Texans” — это посыл всем, кто наблюдает — не сравнивайте наши ARR с Anthropic. Мы ведем другую войну.

Конечная цель OpenAI — не стать Salesforce в эпоху AI, а стать Google — империей трафика и монетизации.

Кофе уже почти остыло — пора менять на холодный напиток.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить