Согласно углубленному репортажу Bloomberg и официальному объявлению Google, Google 22 апреля официально расширила линейку собственных ИИ-чипов: чип для вывода Ironwood (седьмое поколение TPU) полностью поставляется в Google Cloud, и одновременно стартовали совместные проекты со следующими партнёрами — Broadcom, MediaTek, Marvell и Intel — по разработке следующего поколения. Цель — с помощью цепочки поставок заказных чипов конструктивно бросить вызов доминированию Nvidia на рынке вычислительной мощности для ИИ.
Ironwood: седьмое поколение TPU, впервые разработанный специально для вывода
Ironwood — это продукт седьмого поколения в серии Google TPU, а также первый чип, предназначенный исключительно для вывода в рамках стратегии «разделения обучения и вывода». Раскрытые Google спецификации: пиковая производительность на одном чипе — в 10 раз выше, чем у TPU v5p; установленная память — 192GB HBM3E; пропускная способность памяти — 7.2 TB/s; один superpod можно масштабировать до 9,216 жидкостно-охлаждаемых Ironwood; суммарная вычислительная мощность для FP8 — 42.5 exaflops.
Официально Google заявила, что Ironwood уже «полностью доступен» для использования клиентами Google Cloud. В этом году объём поставок, по прогнозам, достигнет «уровня миллиона штук». Anthropic пообещала использовать до 1 миллиона Ironwood TPU. Meta же подписала «многолетний контракт на несколько миллиардов долларов» для использования TPU через Google Cloud.
Распределение ролей четырёх партнёров: обучение у Broadcom, вывод у MediaTek
Следующее поколение чиповой цепочки поставок от Google имеет чёткое распределение ролей:
Партнёр Кодовое обозначение Роль Особенности Broadcom Sunfish Обучение — специализированный Проводит обучение, продолжая существующие отношения сотрудничества с TPU, и руководит крупными обучающими узлами MediaTek (聯發科) Zebrafish Вывод — специализированный Заявляется, что стоимость ниже на 20–30% по сравнению с решением Broadcom Marvell В переговорах Блок обработки памяти (MPU) + дополнительный TPU для вывода оптимизирован для HBM и inference Intel Не раскрыто Участвует в разработке, усиливая диверсификацию цепочки поставок
Это первый в индустрии ИИ пример модели «четыре партнёра параллельно, а обучение и вывод разделены по ролям». Google уходит от структурной зависимости от Nvidia как от единственного поставщика, распределяя риски по IP и выполняя конкурентное ценообразование. Дорожная карта расширяется до конца 2027 года — TPU v8, который будет производиться на техпроцессе TSMC 2nm.
Стратегический смысл: бросать вызов Nvidia — не одиночным чипом, а цепочкой поставок
На протяжении последних трёх лет рынок ИИ-чипов почти монопольно контролировала Nvidia, а двойной «барьер» создавали экосистема ПО CUDA и чипы H100/GB200. План Ironwood от Google и стратегия с четырьмя партнёрами не нацелены на «превосходство в отдельных характеристиках», а скорее воспроизводят логику Nvidia в индустрии — «стандартизированная платформа + закупки от множества клиентов»: чтобы TPU был не только для собственного использования Google, но и коммерческим вариантом вычислительной мощности, которым могут пользоваться ключевые ИИ-компании вроде Anthropic и Meta.
Значение обещания Anthropic в 1 миллион TPU особенно критично: это крупнейшее обязательство по вычислительной мощности со стороны одной ИИ-компании, не являющейся Nvidia. Оно дополняет договорённости Anthropic 4/20 и соглашение с Amazon на 5GW/100 млрд AWS — с одной стороны, привязка к AWS Trainium, с другой — к Google TPU. При этом стратегия Anthropic «двух заказных чипов» снижает зависимость от Nvidia. Meta же впервые публично включила TPU в свои рабочие нагрузки для ИИ-обучения/вывода, подавая ещё один сигнал.
Реакция рынка и увязка с отраслью
Перед этим раскрытием MediaTek уже рассматривалась как «получатель выгоды от заказных чипов Google», а раскрытие кодового обозначения Zebrafish впервые напрямую внесло MediaTek в список партнёров по проектированию чипов для вывода Google. Это продолжает недавнюю линию повествования о «союзе не-Nvidia» — недавнее AMD × GlobalFoundries по кремниевым фотоным и Marvell × Google по MPU.
У Nvidia в тот же период по-прежнему были платформы GB200 и следующее поколение Rubin. Но вычислительные мощности на стороне клиентов смещаются от схемы «всё Nvidia» к параллельной тройке «Nvidia + TPU + AWS Trainium». Для производственных мощностей TSMC 2nm это также означает, что за очередь становятся четыре крупнейших клиента — Google, Nvidia, Apple и Amazon — а переговорная сила поставщиков в контрактном производстве продолжает расти.
Эта статья Google Ironwood TPU: 10-кратная производительность + четыре партнёра против Nvidia впервые появилась на Цепь новостей ABMedia.
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
Оценка DeepSeek резко растет, превысив $20 млрд, на фоне того, что Tencent и Alibaba взвешивают инвестиции
DeepSeek пытается >$20B ас Tencent/Alibaba обсуждают инвестиции; Nvidia предупреждает, что технологическое преимущество чипов США может быть подорвано Huawei; финансирование в сфере ИИ продолжает резко расти благодаря раунду $1B от Vast Data и инвестициям OpenAI/Anthropic/xAI.
DeepSeek стремится к оценке выше $20 млрд на фоне обсуждений с Tencent и Alibaba, при этом Nvidia предупреждает, что перенос ИИ-моделей на чипы Huawei может снизить лидерство США. Материал также отмечает глобальный всплеск финансирования ИИ, включая раунд $1 млрд Vast Data при оценке $30 млрд и крупные инвестиции в OpenAI, Anthropic и xAI.
GateNews10м назад
OpenClaw, Hermes и SillyTavern подтверждены как поддерживаемые в рамках GLM Coding Plan
Менеджер по продукту Zhipu AI Ли объявляет OpenClaw, Hermes и SillyTavern поддерживаемыми проектами по плану GLM Coding Plan; другие инструменты будут оцениваться в каждом конкретном случае. Не делитесь учетными данными и не используйте подписки в качестве доступа к API; обратитесь в поддержку по вопросу с ошибкой 1313.
Менеджер по продукту Zhipu AI Ли объявил, что OpenClaw, Hermes и SillyTavern официально поддерживаются в рамках GLM Coding Plan, а другие инструменты будут оцениваться в каждом конкретном случае. В заметке говорится, что не следует делиться учетными данными или использовать подписки как доступ к API, и предлагается пользователям с ошибкой 1313 обратиться в поддержку.
GateNews3ч назад
Генеральный директор Google Cloud: Gemini будет обеспечивать запуск персонализированной Siri от Apple в 2026 году
Резюме: Gemini будет поддерживать персонализированную Apple Siri в 2026 году, созданную на основе моделей Apple Foundation Models и сотрудничества с Gemini; Apple тестирует чатоподобную Siri в iOS 27/macOS 27, которая запланирована к показу на WWDC 2026.
Аннотация: Google Cloud's Gemini должен обеспечивать персонализированную Apple Siri к 2026 году, сочетая Gemini с Apple's Foundation Models в рамках сотрудничества примерно на $1 миллиардов. Apple тестирует переработанную, чатоподобную Siri в iOS 27/macOS 27, с интерфейсом Dynamic Island и новыми функциями, до запланированного на WWDC 2026 анонса 8 июня.
GateNews3ч назад
Сделка SpaceX $60B Cursor подливает масла в аргументы СБФ в пользу помилования, поскольку доля $200K FTX теперь стоит $3B
Сообщение Gate News, 22 апреля — сегодня SpaceX объявила о крупном партнерстве с AI-стартапом по программированию Cursor; предусмотрен вариант приобрести компанию за $60 billion. Сделка дала Сэму Бэнкмену-Фриду (SBF), который в настоящее время находится в заключении и добивается президентского помилования, новые аргументы, поскольку она демонстрирует потенциальную восстановительную стоимость, которую, как он давно утверждал, FTX могла бы получить.
В апреле 2022 года Alameda Research, торговая фирма, основанная SBF, инвестировала $200,000 в материнскую компанию Cursor Anysphere, приобретя примерно 5% доли. Когда в ноябре 2022 года FTX рухнула, контроль над компанией взял на себя суд по делам о банкротстве. В апреле 2023 года имущество по банкротству FTX продало ту же самую 5%-ю долю за $200,000 — ровно ту же сумму, в которую Alameda инвестировала. Исходя из оценки в billion, объявленной сегодня SpaceX, эта 5%-я доля теперь стоила бы примерно billion, что означает доходность в 15,000x.
SBF давно утверждал, что FTX на самом деле не была неплатежеспособной, и что юристы по банкротству уничтожили ценность, продав активы слишком рано. В феврале 2026 года он поделился прогнозами, согласно которым FTX могла бы достичь чистой стоимости активов billion после восстановления активов. Его родители также активно добиваются помилования: в марте они появились на CNN, чтобы утверждать, что клиенты FTX получили полное возмещение. Однако кредиторы отметили, что выплаты были основаны на оценках за 2022 год, а не на текущих рыночных ценах. Президент Трамп заявил, что не помилует SBF, а рынки прогнозов в настоящее время оценивают вероятность помилования в 2026 году лишь в 5%.
GateNews3ч назад
Акции Chegg обрушились на 99%, поскольку ИИ нарушает рынок Edtech
Кратко: Chegg взлетела на фоне спроса на онлайн-образование, затем инструменты на базе ИИ нарушили ее модель, что привело к массовым увольнениям и падению ниже $2, при этом более широкие изменения, обусловленные ИИ, ударили по майнерам криптовалют и финтех-компаниям.
Аннотация: В этой статье рассматривается рост Chegg как любимца edtech в эпоху пандемии и ее последующее падение на фоне быстрого внедрения генеративного ИИ, который дает быстрые ответы и подрывает ценностное предложение Chegg. В ней описываются увольнения в 2025 году и обвал акций до уровня, близкого к исключению из листинга, а также опыт Chegg вписывается в более широкий контекст сбоя, вызванного ИИ и меняющего технологический сектор и криптоиндустрию: майнеры Bitcoin переходят к операциям на базе ИИ, а AI-ориентированные стратегии заново определяют конкурентоспособность в финтехе и за его пределами.
CryptoFrontier4ч назад
OpenAI выпустила модель с открытым исходным кодом для обнаружения и редактирования ПДн
Аннотация: Фильтр конфиденциальности OpenAI — это модель с открытым исходным кодом, выполняемая локально, которая обнаруживает и редактирует ПДн (персональные данные) в тексте. Она поддерживает большие контексты, выявляет множество категорий ПДн и предназначена для рабочих процессов с сохранением конфиденциальности, таких как подготовка данных, индексация, логирование и модерация.
Фильтр конфиденциальности OpenAI — это локально запускаемая модель с открытым исходным кодом (128k-token context), которая обнаруживает и редактирует ПДн (персональные данные) в тексте, охватывая контактные, финансовые и учетные данные для рабочих процессов по защите конфиденциальности.
GateNews4ч назад