Amazon удваивает ставку: Anthropic на $25 млрд — 5 ГВт вычислительных мощностей, привязка к AWS на триллион долларов

Согласно официальному заявлению Anthropic и официальному пресс-релизу Amazon, обе стороны расширяют стратегическое сотрудничество 4/20: Amazon дополнительно инвестирует в Anthropic до 25 млрд долларов, а Anthropic обязуется в ближайшие десять лет направить на AWS расходы более 100 млрд долларов, а также получить до 5 ГВт дополнительной вычислительной мощности для обучения и развертывания моделей Claude.

Это вторая волна масштабного расширения после 4/7, когда Anthropic вместе с Google и Broadcom получил вычислительную мощность TPU на 3,5 ГВт; также это второй крупный этап «гонки вооружений» по вычислениям Anthropic. Кроме того, это крупнейшее обязательство Amazon перед компанией в сфере ИИ: в результате оценка Anthropic закрепилась на уровне 3800 млрд долларов.

Инвестиционная структура: 5 млрд — аванс, 20 млрд — привязка к вехам

На этот раз инвестиции Amazon разделены на два этапа: 5 млрд долларов перечисляются немедленно в день объявления, а еще до 20 млрд долларов высвобождаются траншами после привязки к «определенным коммерческим вехам». В сочетании с ранее уже вложенными 8 млрд долларов, верхний предел совокупных инвестиций Amazon в Anthropic достигнет 33 млрд долларов.

В рамках этого раунда 5 млрд долларов размещаются в рамках долевого участия по последней оценке Anthropic 3800 млрд долларов, и это также впервые эта оценка подтверждена новым контрактом со стороны инвестора первой линии.

Anthropic обязуется потратить на AWS 1000 млрд долларов за 10 лет

В качестве встречного обязательства Anthropic обещает, что в ближайшие десять лет расходы на AWS превысят 1000 млрд долларов; это включает как действующие, так и будущие поколения заказных AI-чипов Trainium, а также «десятки миллионов ядер» Graviton — универсальные вычислительные CPU.

Andy Jassy (CEO Amazon) в заявлении отметил: «Anthropic обязуется в ближайшие десять лет запускать большие языковые модели на AWS Trainium, что отражает наше общее прогрессирование по пути к заказным чипам». Dario Amodei (CEO Anthropic) также подчеркнул: «Пользователи говорят нам, что Claude становится для них все более важной частью работы, и нам нужно создать инфраструктуру, которая сможет расти вместе со спросом».

Дорожная карта вычислительной мощности: Trainium2, 3, 4 — все серии закреплены

Настоящее соглашение включает три поколения чипов Trainium2, Trainium3 и Trainium4, при этом Anthropic сохраняет опцию закупки последующих поколений заказных чипов. Что касается конкретного графика: во 2 квартале 2026 года на рынок выйдут крупные объемы Trainium2, а крупные объемы Trainium3 будут вводиться в работу поэтапно до конца года; за весь год суммарно Trainium2 и Trainium3 составят почти 1 ГВт.

Project Rainier — флагманский проект, уже существующий в рамках сотрудничества обеих сторон; этот учебный кластер на данный момент развернул примерно 0,5 млн чипов Trainium2, которые являются основной инфраструктурой для обучения моделей Claude.

Выручка от 90 млрд до 300 млрд: резкий рост спроса у Anthropic — это мотивация для переговоров

В объявлении Anthropic в редком порядке раскрывает текущее финансовое состояние: текущая годовая (annualized) выручка уже превысила 300 млрд долларов; по сравнению с 90 млрд долларов на конец 2025 года, за полгода она выросла более чем втрое. Число корпоративных клиентов, которые запускают Claude на AWS, также превысило 100 000; Claude на платформе Amazon Bedrock является одной из самых используемых семейств моделей.

Anthropic также признает, что резкий рост спроса создал нагрузку на инфраструктуру в пиковые часы, повлияв на доступность и производительность. Именно это и стало прямой причиной столь масштабного расширения вычислительных мощностей. Споры вокруг tokenizer в Claude Opus 4.7 и корректировки ограничений по использованию в последнее время тоже связаны с этой реальностью «инфраструктура в дефиците».

Связка «тройка по вычислительной мощности»: AWS, Google и собственные чипы — параллельное продвижение

Помимо объявления в начале апреля о сотрудничестве Anthropic с Broadcom и Google по вычислительной мощности TPU 3,5 ГВт, Anthropic уже одновременно закрепил два направления заказных чипов — AWS Trainium и Google TPU — и при этом сохраняет долгосрочную опцию по разработке и использованию собственных ускорителей. Это контрастирует с маршрутом OpenAI, который идет с опорой в основном на Microsoft Azure и только недавно расширяет AWS.

Для тайваньской полупроводниковой цепочки поставок массовое расширение производства Trainium2–Trainium4 означает, что Marvell, TSMC передовая корпусная упаковка и поставщики памяти HBM в ближайшие три–пять лет будут продолжать получать заказы на заказные чипы AWS.

Уверенность в вычислениях за ускорением гонки за IPO

Это объявление также укрепляет основу истории Anthropic об IPO. Недавно появившийся отчет о подготовке к IPO раскрывает, что разрыв в выручке между двумя компаниями сокращается: годовая выручка OpenAI превысила 250 млрд долларов, а Anthropic догоняет с 190 млрд. Официальное объявление показывает, что годовая выручка Anthropic уже достигла 300 млрд долларов, и разрыв продолжает сокращаться.

Для инвесторов смысл обязательства Amazon заключается не в сумме одного транша, а в глубокой привязке «расходы AWS на 1000 млрд долларов в ближайшие десять лет», которая дает рынку четкую «якорную» точку для понимания предложения вычислительных мощностей Anthropic и долгосрочной структуры затрат. Модель с высокой планкой Project Glasswing Mythos, а также последующие тренировочные вычисления для серии Claude 4.x будут поддерживаться этим новым объемом 5 ГВт.

Эта статья «Amazon увеличивает вложения в Anthropic на 25 млрд долларов: 5 ГВт вычислительной мощности, привязка к AWS на 1000 млрд долларов» впервые появилась в «Цепных новостях ABMedia».

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Оценка DeepSeek резко растет, превысив $20 млрд, на фоне того, что Tencent и Alibaba взвешивают инвестиции

DeepSeek пытается >$20B ас Tencent/Alibaba обсуждают инвестиции; Nvidia предупреждает, что технологическое преимущество чипов США может быть подорвано Huawei; финансирование в сфере ИИ продолжает резко расти благодаря раунду $1B от Vast Data и инвестициям OpenAI/Anthropic/xAI. DeepSeek стремится к оценке выше $20 млрд на фоне обсуждений с Tencent и Alibaba, при этом Nvidia предупреждает, что перенос ИИ-моделей на чипы Huawei может снизить лидерство США. Материал также отмечает глобальный всплеск финансирования ИИ, включая раунд $1 млрд Vast Data при оценке $30 млрд и крупные инвестиции в OpenAI, Anthropic и xAI.

GateNews10м назад

OpenClaw, Hermes и SillyTavern подтверждены как поддерживаемые в рамках GLM Coding Plan

Менеджер по продукту Zhipu AI Ли объявляет OpenClaw, Hermes и SillyTavern поддерживаемыми проектами по плану GLM Coding Plan; другие инструменты будут оцениваться в каждом конкретном случае. Не делитесь учетными данными и не используйте подписки в качестве доступа к API; обратитесь в поддержку по вопросу с ошибкой 1313. Менеджер по продукту Zhipu AI Ли объявил, что OpenClaw, Hermes и SillyTavern официально поддерживаются в рамках GLM Coding Plan, а другие инструменты будут оцениваться в каждом конкретном случае. В заметке говорится, что не следует делиться учетными данными или использовать подписки как доступ к API, и предлагается пользователям с ошибкой 1313 обратиться в поддержку.

GateNews3ч назад

Генеральный директор Google Cloud: Gemini будет обеспечивать запуск персонализированной Siri от Apple в 2026 году

Резюме: Gemini будет поддерживать персонализированную Apple Siri в 2026 году, созданную на основе моделей Apple Foundation Models и сотрудничества с Gemini; Apple тестирует чатоподобную Siri в iOS 27/macOS 27, которая запланирована к показу на WWDC 2026. Аннотация: Google Cloud's Gemini должен обеспечивать персонализированную Apple Siri к 2026 году, сочетая Gemini с Apple's Foundation Models в рамках сотрудничества примерно на $1 миллиардов. Apple тестирует переработанную, чатоподобную Siri в iOS 27/macOS 27, с интерфейсом Dynamic Island и новыми функциями, до запланированного на WWDC 2026 анонса 8 июня.

GateNews3ч назад

Сделка SpaceX $60B Cursor подливает масла в аргументы СБФ в пользу помилования, поскольку доля $200K FTX теперь стоит $3B

Сообщение Gate News, 22 апреля — сегодня SpaceX объявила о крупном партнерстве с AI-стартапом по программированию Cursor; предусмотрен вариант приобрести компанию за $60 billion. Сделка дала Сэму Бэнкмену-Фриду (SBF), который в настоящее время находится в заключении и добивается президентского помилования, новые аргументы, поскольку она демонстрирует потенциальную восстановительную стоимость, которую, как он давно утверждал, FTX могла бы получить. В апреле 2022 года Alameda Research, торговая фирма, основанная SBF, инвестировала $200,000 в материнскую компанию Cursor Anysphere, приобретя примерно 5% доли. Когда в ноябре 2022 года FTX рухнула, контроль над компанией взял на себя суд по делам о банкротстве. В апреле 2023 года имущество по банкротству FTX продало ту же самую 5%-ю долю за $200,000 — ровно ту же сумму, в которую Alameda инвестировала. Исходя из оценки в billion, объявленной сегодня SpaceX, эта 5%-я доля теперь стоила бы примерно billion, что означает доходность в 15,000x. SBF давно утверждал, что FTX на самом деле не была неплатежеспособной, и что юристы по банкротству уничтожили ценность, продав активы слишком рано. В феврале 2026 года он поделился прогнозами, согласно которым FTX могла бы достичь чистой стоимости активов billion после восстановления активов. Его родители также активно добиваются помилования: в марте они появились на CNN, чтобы утверждать, что клиенты FTX получили полное возмещение. Однако кредиторы отметили, что выплаты были основаны на оценках за 2022 год, а не на текущих рыночных ценах. Президент Трамп заявил, что не помилует SBF, а рынки прогнозов в настоящее время оценивают вероятность помилования в 2026 году лишь в 5%.

GateNews3ч назад

Акции Chegg обрушились на 99%, поскольку ИИ нарушает рынок Edtech

Кратко: Chegg взлетела на фоне спроса на онлайн-образование, затем инструменты на базе ИИ нарушили ее модель, что привело к массовым увольнениям и падению ниже $2, при этом более широкие изменения, обусловленные ИИ, ударили по майнерам криптовалют и финтех-компаниям. Аннотация: В этой статье рассматривается рост Chegg как любимца edtech в эпоху пандемии и ее последующее падение на фоне быстрого внедрения генеративного ИИ, который дает быстрые ответы и подрывает ценностное предложение Chegg. В ней описываются увольнения в 2025 году и обвал акций до уровня, близкого к исключению из листинга, а также опыт Chegg вписывается в более широкий контекст сбоя, вызванного ИИ и меняющего технологический сектор и криптоиндустрию: майнеры Bitcoin переходят к операциям на базе ИИ, а AI-ориентированные стратегии заново определяют конкурентоспособность в финтехе и за его пределами.

CryptoFrontier4ч назад

OpenAI выпустила модель с открытым исходным кодом для обнаружения и редактирования ПДн

Аннотация: Фильтр конфиденциальности OpenAI — это модель с открытым исходным кодом, выполняемая локально, которая обнаруживает и редактирует ПДн (персональные данные) в тексте. Она поддерживает большие контексты, выявляет множество категорий ПДн и предназначена для рабочих процессов с сохранением конфиденциальности, таких как подготовка данных, индексация, логирование и модерация. Фильтр конфиденциальности OpenAI — это локально запускаемая модель с открытым исходным кодом (128k-token context), которая обнаруживает и редактирует ПДн (персональные данные) в тексте, охватывая контактные, финансовые и учетные данные для рабочих процессов по защите конфиденциальности.

GateNews4ч назад
комментарий
0/400
Нет комментариев