تحديث المقابلة الأخيرة لهوانغ رين-شون (2): لماذا لا تقوم إنفيديا بنفسها ببناء Hyperscaler؟

ChainNewsAbmedia

في الجزء الثاني من مقابلة هوانغ رين-سون، أجاب بشكل مباشر على التهديد الذي تشكّله TPU وASIC على إنفيديا. شدّد على أن ما تفعله NVIDIA ليس مجرد شريحة ذكاء اصطناعي واحدة، بل منصة لحوسبة التسريع، مع التركيز على تكامل المنظومة البيئية بأكملها. كما في حرب رقائق الصين والولايات المتحدة، فإن سباق الذكاء الاصطناعي ليس مسألة فوز أو خسارة في نقطة واحدة؛ بل ما يهم هو ما إذا كان بإمكان كامل مكدّس التقنيات أن يتعزّز معًا.

إزاء الاعتراض: «بما أن جوهر الذكاء الاصطناعي هو ضرب مصفوفات بكميات كبيرة، فلماذا لا نترك لهياكل TPU الأكثر تخصصًا لتتولّى القيادة؟»، كانت إجابة هوانغ رين-سون: إن ضرب المصفوفات مهم، لكنه ليس كل شيء في الذكاء الاصطناعي. بدءًا من آليات الانتباه الجديدة، وSSM الهجين، ودمج diffusion وautoregressive، وصولًا إلى التنفيذ الموزّع للنماذج والابتكار المعماري؛ غالبًا ما يأتي التقدم في الذكاء الاصطناعي من ابتكار الخوارزميات، وليس فقط من دفع قانون مور في اتجاهٍ أفضل عبر العتاد.

وبما أن NVIDIA تمتلك سيولة كبيرة، وقد شاركت بالفعل بعمق في البنية التحتية للذكاء الاصطناعي وطبقة النماذج عبر الاستثمار في CoreWeave وNebius وNscale، وحتى OpenAI وAnthropic وغيرها، فلماذا لا تذهب ببساطة إلى ما هو أبعد من ذلك وتعمل كموفّر خدمة سحابية بنفسها؟ ما يزال جواب هوانغ رين-سون يعود إلى تلك الجملة: القيام بما هو ضروري بأقصى قدر، والقيام بما هو غير ضروري بأقل قدر. وهذا ليس ضمن نطاق «إذا لم نفعل نحن فلن يفعل غيرنا».

TPU وASIC ليستا بلا تهديد، لكن ساحة معركة NVIDIA أكبر

بالنسبة لاتجاهات مثل Google TPU وAWS Trainium، وحتى OpenAI وAnthropic وغيرها من كبار العملاء الذين يقومون بالتطوير الذاتي أو يعتمدون مُسرّعات بديلة، لم يُظهر هوانغ رين-سون وضعية دفاعية؛ بل على العكس، أعاد تركيزه مرارًا إلى: «إن NVIDIA لا تصنع شريحة ذكاء اصطناعي واحدة فقط، بل منصة لحوسبة التسريع».

شدّد على أن NVIDIA تصنع accelerated computing، وليست مجرد tensor processing. صحيح أن الذكاء الاصطناعي هو أحد أهم التطبيقات اليوم، لكن ما يمكن للـ GPU وCUDA التعامل معه يتجاوز الذكاء الاصطناعي بكثير، ويشمل الديناميكيات الجزيئية، والديناميكيات الكوانتية اللونية، ومعالجة البيانات، والديناميكيات الموائع، وفيزياء الجسيمات، والبحث الدوائي، وتوليد الصور، وشتى أنواع الحوسبة العلمية. وهذا يجعل ذراع NVIDIA التسويقية في السوق بطبيعته أوسع من ASIC المصممة لتحمّل عبء عمل واحد فقط.

إزاء الاعتراض: «بما أن جوهر الذكاء الاصطناعي هو ضرب مصفوفات بكميات كبيرة، فلماذا لا نترك لهياكل TPU الأكثر تخصصًا لتتولّى القيادة؟»، كانت إجابة هوانغ رين-سون كما يلي:

إن ضرب المصفوفات مهم، لكنه ليس كل شيء في الذكاء الاصطناعي. بدءًا من آليات الانتباه الجديدة، وSSM الهجين، ودمج diffusion وautoregressive، وصولًا إلى التنفيذ الموزّع للنماذج والابتكار المعماري؛ غالبًا ما يأتي التقدم في الذكاء الاصطناعي من ابتكار الخوارزميات، وليس فقط من دفع قانون مور في اتجاهٍ أفضل عبر العتاد.

قال ذلك بشكل مباشر جدًا: إذا اعتمدنا فقط على تصغير الترانزستورات (shrink)، فربما يكون التحسّن بحوالي 25% كل عام فقط؛ لكن NVIDIA من Hopper إلى Blackwell، استطاعت الوصول إلى قفزات في الكفاءة تصل إلى 35 ضعفًا، وحتى مستوى 50 ضعفًا. والسبب ليس مجرد عملية تصنيع؛ بل التصميم التعاوني بين النماذج والخوارزميات والشبكات والذاكرة وبنية النظام وCUDA.

ولهذا السبب، وصف هوانغ رين-سون NVIDIA بأنها شركة «تصميم تعاوني مفرط التداخل». فهي لا تكتفي بصنع GPU، بل تقوم بتعديل متزامن على المعالج والترابط والشبكات والمكتبات والخوارزميات وحتى النظام بأكمله. وبدون طبقة CUDA كحزمة عالية القابلية للبرمجة، يصعب تحقيق تحسينات بهذا القدر عبر مستويات متعددة.

قيمة CUDA: قاعدة التثبيت، الإحساس بالثقة، والتوافق العالمي

عندما شكّك المقدم: بما أن كبار العملاء مثل OpenAI وAnthropic وGoogle وAWS أصبحوا جميعًا قادرين على كتابة kernel بأنفسهم وإجراء تحسينات على مستوى الأطر بأنفسهم، فهل ما تزال لدى CUDA جدار حصن قوي؟ رد هوانغ رين-سون من ثلاث زوايا.

أولًا: اكتمال الاعتماد البيئي وموثوقيته. يمكن لـ NVIDIA تقديم دعم كبير على المستوى السفلي للأطر مثل Triton وvLLM وSGLang، ما يمكّن الباحثين من البناء على أساس تم التحقق منه بالفعل بشكل كافٍ. بالنسبة للمطورين، أسوأ ما يمكن أن يحدث ليس أن يخطئوا في الكتابة بأنفسهم، بل أن يكون من المستحيل عليهم معرفة إن كان الخطأ منهم أم من المنصة الأساسية. إحدى قيم CUDA هنا أنها «تم اختبارها مرارًا وتكرارًا»، بما يجعلها تستحق الثقة.

ثانيًا: حجم هائل لقاعدة التثبيت. قال هوانغ رين-سون بصراحة: إذا كنت مطور أطر أو مطور نماذج، فأنت تريد بشكل مطلق base تثبيت. لن ترغب في كتابة البرمجيات لتعمل لديك أنت فقط، بل ترغب في أن تعمل على أكبر عدد ممكن من الأجهزة. من A10 وA100 إلى H100 وH200، وصولًا إلى السحابة والحوسبة على الأجهزة المحلية، والروبوتات ومحطات العمل؛ تتواجد CUDA تقريبًا في كل مكان. تعني قاعدة التثبيت هذه أنه يمكن لتطوير واحد أن يغطي أنظمة كثيرة في أنحاء العالم.

ثالثًا: قابلية التعميم عبر السحابة وعبر السيناريوهات. أشار هوانغ رين-سون إلى أن NVIDIA هي من القلة القادرة على التواجد كمنصة حوسبة في جميع بيئات السحابة الرائجة وبيئات on-prem. بالنسبة لشركات الذكاء الاصطناعي، يعني هذا أنها لا تحتاج إلى أن تُقيد وقتًا مبكرًا نفسها بمزود سحابة واحد بعينه، كما يسهل عليها نشر منتجاتها في أسواق وسيناريوهات مختلفة.

بعبارة أخرى، ليست قيمة CUDA مجرد «سهولة سلسلة الأدوات»، بل أنها تجمع بين اكتمال المنظومة وكمية قاعدة التثبيت عالميًا وقابلية الاستخدام عبر السيناريوهات، لتشكّل عجلة يصعب تحريكها بسهولة.

هوامش ربح مرتفعة لا تعتمد على «ضريبة البرمجيات»، بل على «إنتاج token لكل واط» وتكلفة الاحتفاظ الإجمالية

فيما يتعلق بالاعتراضات القائلة إن NVIDIA تحافظ على هوامش ربح مرتفعة إلى حد كبير بسبب احتكار CUDA، وأنه في حال استطاع المزيد من العملاء لاحقًا كتابة kernel بأنفسهم وبناء مكدس برمجيات بديل، فهل سيتم المساس بهوامش الربح المرتفعة، كانت استجابة هوانغ رين-سون واثقة للغاية.

أشار إلى أن عدد موارد الدعم الهندسي التي تستثمرها NVIDIA داخل الشركة في مختبرات الذكاء الاصطناعي «كثير بشكل مدهش»، لأن GPU ليست سهلة التحكم مثل CPU. شبّه هوانغ رين-سون CPU بسيارة Cadillac: مريحة وثابتة وسهلة القيادة للجميع؛ بينما يشبه المسرّعات من NVIDIA سيارات F1: نظريًا يمكن لأي شخص قيادتها، لكن لكي تضغط الأداء إلى أقصاه تحتاج قدرة احترافية عالية جدًا.

تستخدم NVIDIA أيضًا على نطاق واسع مساعدة الذكاء الاصطناعي في توليد kernel وتحسينها بنفسها؛ لذلك عند المعايرة المشتركة مع العملاء، كثيرًا ما تتمكن من رفع أداء نموذج أو stack بعينه بنسبة 50%، أو مرتين، وحتى 3 أضعاف. بالنسبة للعملاء الذين يمتلكون أسطولًا كبيرًا من GPU، فإن هذا النوع من التحسينات يعادل عمليًا مضاعفة الإيرادات مباشرة.

ثم ذهب هوانغ رين-سون خطوة إلى الأمام ليؤكد أن منصة NVIDIA تمتلك أفضل performance per TCO في العالم، أي أفضل كفاءة من حيث تكلفة الاحتفاظ الإجمالية. قال إنه لا أحد يستطيع أن يثبت فعليًا أن TPU أو Trainium أو منصات أخرى تتفوّق على NVIDIA من حيث التكلفة مقابل الأداء في مجموعتهما، كما أن السوق يفتقر إلى عروض علنية وموثوقة يمكن مقارنتها بشكل إيجابي وصريح.

في نظره، نجاح NVIDIA ليس لأن العملاء مرتبطون بـ CUDA، بل لأنها تستطيع، تحت نفس الطاقة ونفس الإنفاق الرأسمالي، إنتاج أكبر عدد من tokens، ثم تحويل ذلك إلى أكبر قدر من الإيرادات. بالنسبة للعملاء الذين يبنون مراكز بيانات من مستوى 1GW، فإن الأهم ليس ما إذا كانت الشريحة الواحدة مكلفة أم لا، بل ما إذا كان بإمكان مركز البيانات بأكمله توليد أكبر قدر من الإيرادات. طالما أن NVIDIA تظل الأفضل عالميًا في tokens per watt وperf per dollar، فلهوامش الربح المرتفعة مبررها.

لماذا لا تتحول NVIDIA بنفسها إلى hyperscaler؟

وبما أن NVIDIA تمتلك سيولة كبيرة، وقد شاركت بالفعل بعمق في البنية التحتية للذكاء الاصطناعي وطبقة النماذج عبر الاستثمار في CoreWeave وNebius وNscale، وحتى OpenAI وAnthropic وغيرها، فلماذا لا تذهب ببساطة إلى ما هو أبعد من ذلك وتعمل كموفّر خدمة سحابية بنفسها؟

ما يزال جواب هوانغ رين-سون يعود إلى تلك الجملة: «القيام بما هو ضروري بأقصى قدر، والقيام بما هو غير ضروري بأقل قدر».

إذا لم تقم NVIDIA ببناء CUDA وNVLink وCUDA-X، ومكتبات المجال المختلفة ومنصات المستوى السفلي، فمن المحتمل ألا يقوم أحد بهذه الأمور أصلًا؛ لذلك يجب على NVIDIA أن تفعل ذلك بنفسها. لكن إذا كان الأمر يتعلق بالخدمة السحابية، فهناك بالفعل الكثير من الخيارات في العالم، ولا ينطبق هذا على نطاق «إذا لم نفعل نحن فلن يفعل غيرنا».

ومع ذلك، عندما يكون مزودو سحابة AI من نوعٍ جديد لا يزالون ضعفاء جدًا، وقد يحتاجون إلى دعم كي يقلعوا، تكون NVIDIA مستعدة لتقديم التمويل والإمداد والدعم التقني لمساعدة هذا النظام البيئي على النمو. بمعنى آخر: NVIDIA مستعدة لدعم ecosystem، لكنها لا تريد أن تتحول بنفسها إلى مُموِّل (financier) أو hyperscaler.

أما فيما يخص الاستثمار في شركات النماذج مثل OpenAI وAnthropic، فقد اعترف هوانغ رين-سون أيضًا أن هذا نتيجة تعلم من السنوات الأخيرة لـ NVIDIA. في الماضي، لم تكن NVIDIA تدرك أن شركات نماذج أساس مثل OpenAI وAnthropic في المراحل المبكرة كانت ببساطة غير قادرة على جمع كثافة رأس المال المطلوبة بالاعتماد على نموذج VC التقليدي. وعندما فهم ذلك حقًا، أدرك عندها أنه لو كان لديه فرصة لكان من الممكن أن يدعم هذه الشركات في وقت أبكر.

بل إنه قال بصراحة إن هذا يعدّ واحدًا من أخطائه في التقدير: «في ذلك الوقت لم أكن أفهم بعمق أن هذه الشركات، إذا لم تأتِ إليها دعـم من شركات تكنولوجيا كبيرة أو رأس مال بمستوى مماثل، فمن الصعب جدًا أن تقوم من الأساس». والآن وبعد أن أصبحت NVIDIA أكبر حجمًا، يوضح أنه لن يرتكب الخطأ نفسه مرة أخرى.

مشكلة الصين: أكثر مقطع حاد في كامل الحوار

أشد مراحل المناقشة في كامل المقابلة من حيث شدة الهجوم والدفاع تركزت على الصين وقيود تصدير الرقائق. موقف المقدم كان أن قدرات الحوسبة في الذكاء الاصطناعي تُعد سلعة إدخال مباشرة لتدريب ونشر نماذج عالية المخاطر؛ فإذا حصلت الصين على مزيد من القدرات الحوسبية المتقدمة، فقد تتمكن من بناء نماذج تمتلك قدرات لهجمات شبكية واستخراج ثغرات وغيرها بشكل أسرع، ما يشكل مخاطر ملموسة على الأمن القومي الأمريكي وأمن الشركات.

لم ينفِ هوانغ رين-سون أن الذكاء الاصطناعي يحمل مخاطر، ولم ينفِ أيضًا أن الولايات المتحدة ينبغي أن تحافظ على التفوق، لكنه يعارض بشدة مساواة شرائح الذكاء الاصطناعي بالمواد الخاصة بالأسلحة النووية، أو الاستنتاجات المتطرفة من نوع «يكفي بيع المزيد قليلًا وسيحدث كل شيء».

تتمثل نقاطه الأساسية في عدة نقاط.

أولًا، يعتقد أن الصين ليست فراغًا حقيقيًا من حيث القدرة الحوسبية. لدى الصين موارد طاقة كبيرة، وقدرة تصنيع للرقائق، وبنية تحتية للاتصالات والشبكات، كما لديها نسبة كبيرة جدًا من المواهب البحثية في مجال الذكاء الاصطناعي عالميًا. وفقًا لسرد هوانغ رين-سون، الصين ليست: «إذا لم تحصل على رقائق NVIDIA فلن تستطيع تطوير الذكاء الاصطناعي»، بل هي: «إذا لم تحصل على الأفضل، فستستخدم ما لديها، وسيُفرض عليها بناء مكدس تقني محلي في وقت أسرع».

ثانيًا، يرى أن الأثر الجانبي لقيود التصدير هو إجبار النماذج مفتوحة المصدر والمنظومة البيئية وصناعة الرقائق في الصين على الانفصال المتسارع عن مكدس التقنيات الأمريكي. ويرى أن هذه هي المخاطر التي ينبغي للولايات المتحدة أن تقلق منها على المدى الطويل أكثر. لأن الذكاء الاصطناعي لا يقتصر على النماذج وحدها، بل يشمل أيضًا طبقة الرقائق، وطبقة أدوات التطوير، وطبقة المنظومة البيئية مفتوحة المصدر، وطبقة التطبيقات، وكل مكدس التقنيات. إذا ضحت الولايات المتحدة لتقي من أجل طبقة بعينها، مثل شركات النماذج الأكثر تطورًا، وبذلك تُضعف تأثيرها على السوق الصينية من ناحية الرقائق وتجار المطورين، فقد يؤدي ذلك على المدى الطويل إلى أن تفقد الولايات المتحدة موقعها في المعايير والمنصات عالميًا.

الصين هي ثاني أكبر سوق تكنولوجي عالمي، وأحد أكبر المساهمين عالميًا في البرمجيات مفتوحة المصدر والنماذج مفتوحة المصدر. إذا قررت الولايات المتحدة بشكل فعّال التخلي عن هذه المساحة، فهذا يعادل دفع مجموعة كاملة من المطورين نحو مكدس تقني آخر. هذا لا يضر NVIDIA فقط، بل يضر أيضًا كامل صناعة التكنولوجيا الأمريكية وأمنها القومي.

ثالثًا، يؤكد مرارًا أن العالم ليس سيناريوهات متطرفة من نوع «صفر أو لا نهائي» (zero-and-infinite) في كل الأحوال. صحيح أن الولايات المتحدة ينبغي أن تمتلك أكثر وأفضل وأسبق قدرات حوسبية، وهو يتفق تمامًا على ذلك؛ لكن هذا لا يعني أن الولايات المتحدة ينبغي أن تتخلى طوعًا عن السوق الثانية عالميًا، أو أن تصف الذكاء الاصطناعي كسلاح مطلق من نوعٍ يشبه اليورانيوم المخصب (concentrated uranium) على نحوٍ مشابه. بالنسبة له، فإن السرديات المتطرفة المفرطة لا تساعد فقط في صياغة السياسات، وقد تخيف المواهب وتضعف ثقة الصناعة، وفي النهاية قد تخسر الولايات المتحدة ميزتها التنافسية.

حتى إنه أعاد الأمر إلى سياق سياسات الصناعة داخل الولايات المتحدة: «إذا جعلت الولايات المتحدة الذكاء الاصطناعي مُسلّحًا بشكل مفرط بسبب الخوف، فسوف يؤدي ذلك أيضًا إلى أن يرفض المزيد من الناس الاستثمار في البرمجيات والهندسة والمجالات ذات الصلة». بالنسبة له، هذا النوع من السياسات القائمة على الخوف يعدّ «عقلية الخاسر»، وليس الموقف الذي ينبغي لدولة تقود ثورة تقنية أن تتبناه.

ما يريده هوانغ رين-سـون أن يقوله فعلًا هو: «سباق الذكاء الاصطناعي ليس مسألة فوز أو خسارة في نقطة واحدة؛ بل ما يهم هو ما إذا كان بإمكان كامل مكدس التقنيات أن يتعزّز في آنٍ واحد».

هذه المقالة مقابلة هوانغ رين-سون الأحدث (الجزء السفلي): لماذا لا تصنع NVIDIA Hyperscaler بنفسها؟ ظهرت لأول مرة في 链新闻 ABMedia.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات