Интервью с Хуаном Жэньсюном: почему Nvidia не делает Hyperscaler самостоятельно?

ChainNewsAbmedia

Во втором абзаце интервью с Хуаном Жэньсюнем он прямо отреагировал на угрозу со стороны TPU и ASIC для NVIDIA. Он подчеркнул, что NVIDIA делает не одну-единственную AI-микросхему, а платформу ускоренных вычислений; акцент — на интеграции всей экосистемы. Как и в чиповой войне между США и Китаем, в AI-соревновании нельзя выиграть одним точным ходом — нужно смотреть, может ли одновременно укрепляться весь технологический стек.

Отвечая на сомнения вроде: «По сути AI — это в большом объеме умножение матриц. Почему не дать более специализированной архитектуре вроде TPU доминировать?», ответ Хуана Жэньсюня таков: умножение матриц очень важно, но это не всё в AI. От новой attention-механики, смешанного SSM,融合 diffusion и autoregressive — до распределенного исполнения моделей и архитектурных инноваций: прогресс в AI зачастую рождается из инноваций в алгоритмах, а не просто из «подталкивания» закона Мура за счет совершенствования железа.

Поскольку у NVIDIA на руках много наличных и она уже глубоко вовлечена в AI-инфраструктуру и уровень моделей через инвестиции в CoreWeave, Nebius, Nscale, а также даже через участие в OpenAI, Anthropic и т. п., — почему бы ей не просто выйти и самой стать облачным провайдером? Ответ Хуана Жэньсюня снова возвращается к той же фразе: делать максимум из того, что необходимо, и минимум из того, что не обязательно. Это не относится к категории «если мы этого не сделаем, никто не сделает».

TPU и ASIC представляют угрозу, но у NVIDIA поле боя шире

Что касается тенденции со стороны Google TPU, AWS Trainium, а также даже OpenAI, Anthropic и других крупных клиентов, разрабатывающих самостоятельно или переходящих на альтернативные ускорители, Хуан Жэньсюнь не демонстрирует оборонительной позиции; наоборот, он многократно возвращает фокус к тому, что NVIDIA делает не одну-единственную AI-микросхему, а платформу ускоренных вычислений.

Он подчеркивает, что NVIDIA создает accelerated computing, а не только tensor processing. AI, конечно, одно из самых важных применений сегодня, но GPU и CUDA способны обрабатывать гораздо больше, чем AI: сюда входят молекулярная динамика, квантовая хромодинамика, обработка данных, гидродинамика, физика частиц, разработка лекарств, генерация изображений и различные научные вычисления. Благодаря этому «охват» рынков у NVIDIA изначально шире, чем у ASIC, которые проектируют под один конкретный тип рабочей нагрузки.

Отвечая на сомнения вроде: «По сути AI — это в большом объеме умножение матриц. Почему не дать более специализированной архитектуре вроде TPU доминировать?», ответ Хуана Жэньсюня звучит так:

Умножение матриц очень важно, но это не всё в AI. От новой attention-механики, смешанного SSM,融合 diffusion и autoregressive — до распределенного исполнения моделей и архитектурных инноваций: прогресс в AI зачастую рождается из инноваций в алгоритмах, а не просто из «подталкивания» закона Мура за счет совершенствования железа.

Он говорит об этом очень прямо: если полагаться только на масштабирование транзисторов, то в год примерно и будет прирост около 25%; но NVIDIA — от Hopper до Blackwell — может достигать энергоэффективности на уровне 35 раз, а иногда и 50 раз. Причем это достигается не за счет одной только технологии производства, а за счет совместного проектирования моделей, алгоритмов, сети, памяти, системной архитектуры и CUDA.

Поэтому Хуан Жэньсюнь описывает NVIDIA как «компанию экстремального совместного проектирования». Это не просто производство GPU: она синхронно меняет процессоры, interconnect, сеть, библиотеки, алгоритмы и всю систему. Без CUDA — слоя высокой программируемости — такие масштабные кросс-уровневые оптимизации трудно реализовать.

Ценность CUDA: установленная база, доверие и глобальная универсальность

Когда ведущий ставит под сомнение: «Если такие крупные клиенты как OpenAI, Anthropic, Google, AWS уже умеют писать kernel и оптимизировать фреймворки самостоятельно, то у CUDA все еще есть такая прочная “моат”/ров»? — Хуан Жэньсюнь отвечает с трех точек зрения.

Первая — полнота и надежность экосистемы. NVIDIA может обеспечить массивную поддержку низкоуровневых компонентов для фреймворков вроде Triton, vLLM, SGLang, позволяя исследователям строить на базе, которая уже многократно подтверждена. Для разработчиков самое страшное — не то, что они сами ошиблись, а то, что вообще невозможно определить, ошибка в том, что они сделали сами, или в том, что лежит на нижележащей платформе. Одна из ценностей CUDA в том, что ее «много раз гоняли до отказа», и она достаточно заслуживает доверия.

Вторая — огромная установленная база. Хуан Жэньсюнь прямолинеен: если вы разработчик фреймворка или разработчик модели, вам абсолютно необходим install base. Вам не хочется писать софт только «для себя», а хочется, чтобы он мог работать на максимально возможном числе машин. От A10, A100 до H100, H200, и далее — от облака до периферии, от роботов до рабочих станций: CUDA практически везде. Такая установленная база означает: один раз разработал — и можно охватить большое количество систем по всему миру.

Третья — универсальность между облаками и разными сценариями. Хуан Жэньсюнь отмечает, что NVIDIA — одна из редких вычислительных платформ, которая одновременно присутствует во всех основных облаках и в on-prem средах. Для AI-компаний это означает, что им не нужно слишком рано фиксироваться на единственном облачном сервис-провайдере, а также проще развертывать продукты в разных рынках и сценариях.

Иными словами, ценность CUDA — это не только «удобство инструментальной цепочки». Она сочетает полноту экосистемы, глобальную установленную базу и универсальность под разные сценарии, формируя крайне трудно пошатнуть «маховик».

Высокая маржинальность не на «налоге на софт», а на «output токенов на каждый ватт» и общей стоимости владения

Для внешней аудитории сомнение выглядит так: NVIDIA сохраняет высокую валовую маржу во многом благодаря монополии CUDA; и если в будущем больше клиентов смогут сами писать kernel и создавать стек альтернативного ПО, не будет ли эта высокая маржа подорвана? Ответ Хуана Жэньсюня крайне уверен.

Он указывает, что внутри NVIDIA в поддержку инженерных команд, работающих с большими AI-лабораториями, вкладывается такое количество человеко-ресурсов, которое «просто удивляет», потому что GPU не так легко «поднять в повседневную работу», как CPU. Хуан Жэньсюнь сравнивает CPU с Cadillac: плавно, удобно, каждый может сесть и начать. А ускоритель NVIDIA — как F1: теоретически каждый может водить, но чтобы выжать производительность на максимум, нужны очень высокие профессиональные компетенции.

NVIDIA также активно использует AI, чтобы помогать генерировать и оптимизировать kernel. Поэтому при совместной настройке с клиентами они часто могут поднять производительность конкретной модели или stack на 50%, в 2 раза и даже в 3 раза. Для клиентов, у которых есть крупные флотилии GPU, такая оптимизация почти равнозначна прямому удвоению дохода.

Далее Хуан Жэньсюнь утверждает, что платформа NVIDIA во всем мире обладает лучшим performance per TCO — то есть лучшим соотношением эффективности и общей стоимости владения. Он говорит, что никто не может по-настоящему доказать, что TPU, Trainium или другие платформы превосходят NVIDIA в общей стоимости и эффективности; также на рынке не хватает публичных, заслуживающих доверия примеров, с которыми можно прямо и корректно сравнивать.

По его мнению, успех NVIDIA вовсе не из-за того, что клиентов «прибивает» к CUDA. Он в том, что при тех же энергозатратах и тех же капитальных затратах платформа NVIDIA производит максимум токенов — и тем самым конвертирует это в максимум выручки. Для клиентов, которые строят AI-дата-центры уровня 1GW, важнее не то, насколько дорогой окажется один конкретный чип, а то, сможет ли весь дата-центр приносить максимальную выручку. Пока NVIDIA остается глобально лучшей по tokens per watt и perf per dollar — у высокой маржинальности есть обоснование.

Почему NVIDIA не стала hyperscaler сама?

Раз у NVIDIA много наличных, и она уже через инвестиции в CoreWeave, Nebius, Nscale, а также даже через участие в OpenAI, Anthropic и т. п. глубоко задействована в AI-инфраструктуре и на уровне моделей, — почему бы ей не просто выйти на рынок и самой стать облачным сервис-провайдером?

Ответ Хуана Жэньсюня снова сводится к той же фразе: «делать максимум из того, что необходимо, и минимум из того, что не обязательно».

Если бы NVIDIA не занималась CUDA, NVLink, CUDA-X, а также различными библиотеками для предметных областей и базовой платформой, то, скорее всего, этим бы вообще никто не занялся — поэтому NVIDIA должна делать это напрямую. Но если речь об облачном сервисе, то в мире уже есть много таких компаний; это не относится к категории «если мы этого не сделаем, никто не сделает».

Однако когда новый тип AI-облачных сервис-провайдеров еще слишком слаб и, возможно, нуждается в поддержке, чтобы взлететь, NVIDIA готова предоставлять деньги, поставки и техническую поддержку, помогая этому экосистемному звену вырасти. То есть NVIDIA готова поддерживать ecosystem, но не хочет превращаться самой в financier или hyperscaler.

Что касается инвестиций в компании уровня OpenAI, Anthropic и т. п., Хуан Жэньсюнь признает, что это на самом деле результат обучения для NVIDIA за последние годы. Раньше NVIDIA не осознавала, что такие компании базовых моделей, как OpenAI и Anthropic, в ранней стадии вообще не могли сформироваться, опираясь на традиционную модель VC — им требовалась плотность капитала, недостижимая в рамках того подхода. И только когда она действительно это поняла, осознала, что если бы у нее была возможность, она могла бы начать поддерживать раньше.

Он даже прямо говорит: «Это одна из моих ошибок в оценке»: «Тогда я недостаточно глубоко понимал, что без поддержки со стороны крупных технологических компаний или капитала аналогичного уровня этим компаниям крайне трудно было бы состояться». Сейчас, когда масштаб NVIDIA стал больше, он поясняет, что не совершит ту же ошибку снова.

Проблема Китая — самый острый отрезок всей дискуссии

Самые ожесточенные атаки и контратаки во время всего интервью сосредоточились на Китае и ограничениях на экспорт чипов. Позиция ведущего такова: AI-вычислительная мощность — это прямой вложение, связанное с высокими рисками обучения и развертывания моделей. Если Китай получит больше передовых вычислительных мощностей, он сможет быстрее создать модели с возможностями сетевых атак, добычи уязвимостей и т. п., что будет представлять реальный риск для национальной безопасности США и безопасности компаний.

Хуан Жэньсюнь не отрицает, что у AI есть риски, и также не отрицает, что США следует продолжать сохранять лидерство, но он решительно выступает против крайнего вывода, приравнивающего AI-чипы к ядерным материалам или идеи «если продать чуть больше — обязательно случится беда».

Его ключевые тезисы можно свести к нескольким пунктам.

Во-первых, он считает, что Китай — не вакуум по вычислительной мощности. В Китае есть огромные энергетические ресурсы, возможности производства чипов, инфраструктура связи и сетей, а также глобально очень большая доля специалистов, занимающихся исследованиями в AI. В изложении Хуана Жэньсюня Китай — это не «если не получить чипы NVIDIA, развивать AI невозможно», а «если не получить лучшее, то будут использовать свое и будут вынуждены быстрее выстроить собственный локальный технологический стек».

Во-вторых, он полагает, что побочный эффект экспортных ограничений — ускорить отрыв китайских open-source моделей, экосистем и индустрии чипов от американского технологического стека. С его точки зрения, это — риск, о котором США стоит беспокоиться в первую очередь. Потому что AI — это не только модели: это еще и уровень чипов, уровень инструментов разработки, уровень open-source экосистемы, уровень приложений и весь остальной стек. Если США, чтобы защитить какой-то слой, например самые передовые компании по моделям, пожертвуют влиянием на китайский рынок в области чипов и экосистемы разработчиков, то в долгосрочной перспективе США могут, наоборот, потерять место в мировой «войне стандартов и платформ».

Китай — второй по величине технологический рынок в мире и один из крупнейших вкладчиков в мире по открытым исходным кодам и open-source моделям. Если США добровольно откажутся от этой части рынка, то по сути они сами отправят целую группу разработчиков в другую технологическую экосистему. Это нанесет ущерб не только NVIDIA, но и всей американской технологической индустрии, а также вопросам национальной безопасности.

В-третьих, он снова и снова подчеркивает, что мир — не сценарий с нулевой суммой и бесконечными крайними умозаключениями. США, конечно, должны иметь максимум, лучшее и самое раннее в вычислительной мощности — он с этим полностью согласен; но это не означает, что США должны намеренно отказаться от второго по величине рынка в мире или описывать AI как абсолютное оружие, по типу некоего «обогащенного урана» — в такой логике. Для него чрезмерно экстремальная нарративность не просто не помогает при выработке политики — она может еще и отпугнуть таланты, ослабить уверенность в индустрии и в итоге заставить самих США потерять конкурентные преимущества.

Он даже возвращает этот сюжет в контекст внутренней промышленной политики: «Если из-за страха США чрезмерно милитаризируют AI, то это также заставит больше людей сопротивляться вложениям в программное обеспечение, инженерию и связанные области». В его глазах такая политика из страха — это «психология проигравшего», а не достойная позиция страны, которая действительно должна вести технологическую революцию.

Суть того, что Хуан Жэньсюнь по-настоящему хотел сказать, такова: «Гонка в AI — это не вопрос победы в одной точке; важно, может ли одновременно укрепляться весь технологический стек».

Эта статья Хуан Жэньсюнь — его самое новое интервью (нижняя часть): Почему NVIDIA не делает свой Hyperscaler? Впервые появилась в Цепные новости ABMedia.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев