أطروحتنا حول الذكاء الاصطناعي في مجال العملات الرقمية (الجزء الثاني): الحوسبة اللامركزية هي الملك

متقدم12/18/2024, 2:25:18 AM
في الجزء الثاني من أطروحتي، سأغوص في أربعة من أكثر القطاعات الفرعية وعدًا لازمًا في Crypto AI: الحوسبة اللامركزية: تدريب واستنتاج & أسواق وحدات معالجة الرسومات، الشبكات البيانات، الذكاء الاصطناعي الموثوق، ووكلاء الذكاء الاصطناعي العائشين على السلسلة. هذه القطعة تمثل تتويج أسابيع من البحث العميق والمحادثات مع المؤسسين والفرق في منظر Crypto AI. ليس من المقصود أن يكون هذا الجزء غطاءًا شاملاً لكل قطاع - هذه حفرة أخرى ليوم آخر.

لم أهز هذا الفقدان الكبير.

لا يزال يطاردني لأنه كان أكثر رهان واضح لأي شخص يهتم، ومع ذلك لم أستثمر دولار واحد.

لا ، لم يكن القاتل التالي لـ سولانا أو عملة ميمية تحمل كلبًا يرتدي قبعة مضحكة.

كانت … نفيديا.

سعر سهم NVDA منذ بداية العام. المصدر: جوجل

في عام واحد فقط، زادت قيمة NVDA بنسبة 3 مرات، حيث ارتفعت من 1 تريليون دولار إلى 3 تريليون دولار. حتى تفوقت على بيتكوين خلال نفس الفترة.

بالتأكيد، بعض هذا هو تضخيم للذكاء الاصطناعي. ولكن جزءاً هائلاً منه مرتبط بالواقع. أعلنت NVIDIA عن إيرادات بقيمة 60 مليار دولار في السنة المالية 2024، وهو زيادة مذهلة بنسبة 126% عن عام 2023. تم دفع هذه الزيادة من قبل كبار شركات التكنولوجيا الكبرى التي تنافس في سباق عالمي للذكاء الاصطناعي نحو الذكاء الاصطناعي العام.

لماذا فاتني ذلك؟

لمدة عامين، كنت مركزًا بشكل كبير على مجال العملات الرقمية ولم ألتفت إلى ما يحدث في مجال الذكاء الاصطناعي. كانت هذه خطأ كبير، ولا يزال يؤرقني.

لكنني لا أرتكب نفس الخطأ مرتين.

اليوم، يبدو مجال العملات الرقمية AI مشابهًا بشكل غريب. نحن على شفا حدث انفجار في التقنية. الشبه باندفاع الذهب في كاليفورنيا في منتصف القرن التاسع عشر من الصعب تجاهله - ظهرت الصناعات والمدن فجأة، وتقدمت البنية التحتية بسرعة هائلة، وتحققت الثروات من قبل أولئك الذين جرأوا على القفز.

مثل نفيديا في أيامها الأولى، سيبدو Crypto AI واضحًا في وقت لاحق.

فيالجزء الأول من أطروحتي, لقد شرحت لماذا مجال العملات الرقمية AI هو فرصة الظلام الأكثر إثارة للمستثمرين والبناة اليوم.

ها هو إعادة تلخيص سريعة:

  • الكثيرون ما زالوا يرفضونه كـ “vaporware”.
  • مجال العملات الرقمية الذكاء الاصطناعي في مرحلته المبكرة - على الأرجح بعيدة عن ذروة الضجة 1-2 سنوات.
  • هناك فرصة نمو تبلغ أكثر من 230 مليار دولار في هذا المجال، على الأقل.

عند نظرًا لجوهرها، تعد Crypto AI هي AI مع البنية التحتية للعملة المشفرة المضافة فوقها. هذا يعني أنه من المرجح أن تتبع نمو AI الأسي في السوق المشفرة بشكل أوسع. لذا، للبقاء في المقدمة، يجب عليك الاهتمام بأحدث الأبحاث الخاصة بـ AI على Arxiv والتحدث إلى المؤسسين الذين يعتقدون أنهم يبنون الشيء الكبير التالي.

في الجزء الثاني من أطروحتي، سأغوص في أربعة من أكثر القطاعات الفرعية الواعدة في مجال العملات الرقمية AI:

  1. الحوسبة اللامركزية: تدريب واستدلال وأسواق وحدة المعالجة الرسومية
  2. شبكات البيانات
  3. الذكاء الاصطناعي القابل للتحقق
  4. وكلاء الذكاء الاصطناعي الذين يعيشون على السلسلة

يمثل هذا القطعة نتيجة أسابيع من البحث العميق والمحادثات مع المؤسسين والفرق في مجال العملات الرقمية الذكاء الاصطناعي. لم يتم تصميمه ليكون استكشافًا عميقًا شاملاً لكل قطاع - هذا حفرة الأرنب ليوم آخر.

بدلاً من ذلك، اعتبره خارطة طريق عامة صممت لإثارة الفضول، وشحذ بحثك، وتوجيه التفكير في الاستثمار.

رسم الخريطة العامة

أتخيل مكدس الذكاء الاصطناعي غير المركزي كنظام بيئي متدرج: يبدأ بالحوسبة غير المركزية وشبكات البيانات المفتوحة من جهة، التي تدعم تدريب نماذج الذكاء الاصطناعي غير المركزي.

يتم التحقق من كل استنتاج بعد ذلك - سواء كانت المدخلات أو المخرجات - باستخدام مزيج من علم التشفير والحوافز العملية الرقمية وشبكات التقييم. تتدفق هذه المخرجات المتحققة إلى وكلاء الذكاء الاصطناعي الذين يمكنهم العمل بشكل مستقل على السلسلة الرئيسية، وكذلك تطبيقات الذكاء الاصطناعي للمستهلكين والمؤسسات التي يمكن للمستخدمين الوثوق بها بالفعل.

تربط شبكات التنسيق كل شيء معًا، مما يتيح التواصل والتعاون بسلاسة عبر النظام البيئي.

في هذه الرؤية، يمكن لأي شخص يقوم ببناء في مجال الذكاء الاصطناعي الاستفادة من طبقات واحدة أو أكثر من هذا النموذج، اعتمادًا على احتياجاتهم الخاصة. سواء كان ذلك بالاستفادة من الحوسبة المفتوحة المركزية لتدريب النماذج أو باستخدام شبكات التقييم لضمان الإخراج عالي الجودة، يوفر هذا النموذج مجموعة من الخيارات.

بفضل تكامل بلوكتشين الكامن، أعتقد أننا نتجه بشكل طبيعي نحو مستقبل قابل للتعديل. كل طبقة تصبح متخصصة للغاية، مع بروتوكولات محسنة لوظائف متميزة بدلاً من نهج متكامل للجميع في واحد.

المصدر: topology.vc

لقد حدث انفجار كامبري من الشركات الناشئة التي تعمل على كل طبقة من طبقات كومة الذكاء الاصطناعي المتمركز، معظمها تأسست في السنوات الأخيرة فقط. من الواضح: إننا ما زلنا في بداية الطريق.

أكثر خريطة شاملة وحديثة لمشهد الشركات الناشئة للذكاء الاصطناعي في المجال العملات الرقمية التي رأيتها محافظة من قبل كيسي وفريقها هنا فيtopology.vc. إنه مصدر لا يقدر بثمن لأي شخص يتتبع المجال.

أثناء استكشافي لمجال العملات الرقمية الفرعية للذكاء الاصطناعي، أسأل نفسي باستمرار: ما حجم الفرصة هنا؟ أنا لست مهتمًا بالرهانات الصغيرة - أنا أبحث عن الأسواق التي يمكن أن تتوسع إلى مئات المليارات.

1. حجم السوق

لنبدأ بحجم السوق. عند تقييم قطاع فرعي، أسأل نفسي: هل يخلق سوقًا جديدًا أم يعمل على تعطيل سوق موجود؟

خذ الحوسبة المركزية على سبيل المثال. إنها فئة مختلفة تمامًا ويمكن تقدير إمكانياتها من خلال النظر إلى سوق الحوسبة السحابية المعتمدة، والتي تبلغ قيمتها تقريبًا ~$680B اليوم ومن المتوقع أن تصل إلى 2.5 تريليون دولار في عام 2032.

الأسواق الجديدة التي ليس لها سابق ومثال، مثل وكلاء الذكاء الاصطناعي، أصعب في تقديرها. بدون بيانات تاريخية، يتضمن تحديدها مزيجًا من التخمينات المدروسة والتحققات الداخلية حول المشاكل التي يتم حلها. والفخ هو أنه في بعض الأحيان، ما يبدو وكأنه سوق جديد هو في الواقع مجرد حل يبحث عن مشكلة.

2. التوقيت

التوقيت هو كل شيء. يميل التكنولوجيا إلى التحسن وأصبح أرخص مع مرور الوقت، ولكن وتيرة التقدم تختلف.

ما مدى نضج التكنولوجيا في قطاع فرعي معين؟ هل هو جاهز للتوسع ، أم أنه لا يزال في مرحلة البحث ، مع تطبيقات عملية على بعد سنوات؟ يحدد التوقيت ما إذا كان القطاع يستحق اهتماما فوريا أو يجب تركه في فئة “الانتظار والترقب”.

لنأخذ التشفير التام للتطبيقات (FHE) كمثال: لا يوجد شك في الإمكانات الكبيرة له، ولكنه لا يزال بطيئًا جدًا للاستخدام الواسع النطاق. ربما نحتاج إلى سنوات عدة قبل أن نرى انتشاره الواسع. من خلال التركيز على القطاعات التي تقترب من التوسع أولاً، يمكنني قضاء وقتي وطاقتي حيث يتم بناء الزخم والفرص.

إذا كنت ستقوم بتعيين هذه الفئات على مخطط حجم مقابل توقيت، فإنه سيبدو على هذا النحو. تذكر أن هذا هو أكثر من رسم تخطيطي تصوري من دليل صارم وثابت. هناك الكثير من التفاصيل الدقيقة ، على سبيل المثال ، في التأكيد القابل للتحقق ، هناك نهج مختلف مثل zkML و opML على مستويات جاهزية مختلفة للاستخدام.

هذا قال، أنا مقتنع بأن مقياس الذكاء الاصطناعي سيكون ضخمًا لدرجة أن ما يبدو “متخصصًا” اليوم يمكن أن يتطور إلى سوق هامة.

من الجدير بالذكر أيضًا أن التقدم التكنولوجي لا يلتزم دائمًا بخط مستقيم — فإنه غالبًا ما يحدث بشكل فجائي. ستتغير آرائي حول التوقيت وحجم السوق عند حدوث اختراقات طارئة.

مع هذا الإطار في الاعتبار، دعونا نقسم كل قطاع فرعي.

القطاع 1: الحوسبة اللامركزية

في الأخير، لم يُقرأ

  • الحوسبة اللامركزية هي العمود الفقري للذكاء الاصطناعي اللامركزي.
  • أسواق وحدة معالجة الرسومات والتدريب المركزي والاستنتاج المركزي مترابطة بشكل وثيق وتزدهر معًا.
  • يأتي الجانب المعروض عادةً من مراكز بيانات متوسطة الحجم وبطاقات الرسومات للمستهلكين.
  • الجانب الطلب صغير ولكنه في تزايد. اليوم، يأتي من مستخدمين حساسين للسعر وغير حساسين للتأخير وشركات البداية الصغيرة في مجال الذكاء الاصطناعي.
  • أكبر تحدي لأسواق وحدة المعالجة المركزية GPU لـ Web3 اليوم هو في الواقع جعلها تعمل.
  • تتطلب تنسيق وحدات معالجة الرسوميات عبر شبكة مركزية متطورة هندسة متقدمة وهندسة شبكة قوية ومصممة بشكل جيد.

1.1. أسواق وحوسبة GPU / شبكات الحوسبة

عدة فرق Crypto AI تتموضع للاستفادة من نقص وحدات المعالجة الرسومية بالمقارنة مع الطلب عبر بناء شبكات مركزية تستفيد من مجموعة الطاقة الحسابية الكامنة العالمية.

القيمة الأساسية المقترحة لأسواق وحدة معالجة الرسومات هي ثلاثية:

  1. يمكنك الوصول إلى الحوسبة بتكلفة “تصل إلى 90% أرخص” من خدمة AWS، وذلك بفضل (1) إزالة الوسطاء و (2) فتح الجانب المعروض. في الأساس، تسمح لك هذه الأسواق بالاستفادة من أدنى تكلفة حوسبة طفيفة في جميع أنحاء العالم.
  2. مرونة أكبر: لا توجد عقود قفل، لا يوجد تحقق من الهوية، لا توجد أوقات انتظار.
  3. مقاومة الرقابة

للتصدي لجانب العرض في السوق، تقوم هذه المتاجر بالحصول على المعلومات الحسابية من:

  • وحدات معالجة الرسومات على مستوى المؤسسات (مثل A100s و H100s) من مراكز البيانات الصغيرة والمتوسطة المستوى التي تكافح للعثور على الطلب بمفردها أو عمال مناجم Bitcoin الذين يتطلعون إلى التنويع. أعرف أيضا فرقا تستفيد من مشاريع البنية التحتية الكبيرة التي تمولها الحكومة ، حيث تم بناء مراكز البيانات كجزء من مبادرات نمو التكنولوجيا. غالبا ما يتم تحفيز هؤلاء المزودين للاحتفاظ بوحدات معالجة الرسومات الخاصة بهم على الشبكة ، مما يساعدهم على تعويض تكاليف استهلاك وحدات معالجة الرسومات الخاصة بهم.
  • وحدات معالجة الرسوميات للمستهلكين من ملايين اللاعبين والمستخدمين المنزليين الذين يقومون بتوصيل أجهزة الكمبيوتر الخاصة بهم بالشبكة مقابل حوافز الرموز

من ناحية أخرى ، يأتي الطلب على الحوسبة المركزية المفتوحة اليوم من:

  1. المستخدمون الحساسون للسعر وغير الحساسين لزمن الوصول. يعطي هذا الجزء الأولوية للقدرة على تحمل التكاليف على السرعة. فكر في الباحثين الذين يستكشفون مجالات جديدة ، ومطوري الذكاء الاصطناعي المستقلة ، وغيرهم من المستخدمين المهتمين بالتكلفة الذين لا يحتاجون إلى معالجة في الوقت الفعلي. نظرا لقيود الميزانية ، قد يعاني الكثير منهم مع أدوات التحجيم الفائقة التقليدية مثل AWS أو Azure. نظرا لأنها موزعة تماما بين السكان ، فإن التسويق المستهدف أمر بالغ الأهمية لجلب هذه المجموعة على متن الطائرة.
  2. تواجه الشركات الناشئة الصغيرة في مجال الذكاء الاصطناعي تحديات في تأمين موارد الحساب القابلة للتوسعة والمرنة دون الالتزام بعقود طويلة الأمد مع مزودي الخدمات السحابية الرئيسيين. تعتبر تطوير الأعمال أمرًا حيويًا لجذب هذا القطاع، حيث يبحثون بنشاط عن بدائل للقفل التقني.
  3. مشاريع الذكاء الاصطناعي في مجال العملات الرقمية التي تقوم ببناء منتجات الذكاء الاصطناعي اللامركزية ولكن بدون إمكانية الوصول إلى توريد الحوسبة الخاص بها سيحتاجون إلى الاستفادة من موارد أحد هذه الشبكات.
  4. الألعاب السحابية: على الرغم من أنها ليست مدفوعة مباشرة بالذكاء الاصطناعي، إلا أن الألعاب السحابية تعتبر مصدرًا متزايد الطلب على موارد وحدة معالجة الرسومات.

الشيء الرئيسي لتذكره: يولي المطورون دائمًا أولوية للتكاليف والموثوقية.

التحدي الحقيقي: الطلب، ليس العرض

تعتبر الشركات الناشئة في هذا المجال غالبًا حجم شبكات إمدادها بوحدات معالجة الرسومات (GPU) علامة على النجاح. ولكن هذا أمر مضلل - إنه مقياس تفاخر فقط.

القيد الحقيقي ليس العرض بل الطلب. القياسات الرئيسية لتتبعها ليست عدد وحدات المعالجة الرسومية المتاحة، بل معدل الاستخدام وعدد وحدات المعالجة الرسومية التي تم تأجيرها فعلياً.

الرموز ممتازة في تشغيل الجانب العرضي، مما يخلق الحوافز اللازمة للتوسع بسرعة. ومع ذلك، فهي لا تحل بشكل ذاتي مشكلة الطلب. الاختبار الحقيقي هو الحصول على المنتج إلى حالة جيدة بما يكفي حيث يتجسد الطلب الكامن.

يضع Haseeb Qureshi (Dragonfly) الأفضل:

جعل شبكات الحوسبة تعمل فعلاً

على العكس من الاعتقاد الشائع، أكبر عقبة أمام أسواق وحدة معالجة الرسومات الموزعة على الويب3 اليوم هي ببساطة جعلها تعمل بشكل صحيح.

هذه ليست مشكلة تافهة.

تنظيم وحدات معالجة الرسوميات عبر شبكة موزعة معقد، مع طبقات من التحديات - توزيع الموارد، تحجيم الأعباء الديناميكية، توازن الحمل عبر العقد ووحدات معالجة الرسوميات، إدارة التأخير، نقل البيانات، تحمل الأخطاء، ومعالجة أجهزة متنوعة متناثرة عبر جغرافيات مختلفة. يمكنني الاستمرار في الحديث.

تحقيق ذلك يتطلب هندسة جادة وهيكلية شبكة متينة ومصممة بشكل صحيح.

لو ضعنا الأمور في سياقها، فإننا نجد أن Kubernetes الخاص بـ Google يُعتبر على نطاق واسع كمعيار ذهبي لتنظيم الحاويات، حيث يقوم بتلقين العمليات مثل توازن الحمل وتوسيع القدرات في بيئات موزعة، وهي تحديات متشابهة جدًا لتلك التي تواجهها شبكات وحدات المعالجة المركزية الموزعة. تم بناء Kubernetes نفسه على أكثر من عقد من الزمان من تجربة Google، وحتى ذلك الحين، استغرق الأمر سنوات من التكرار المتواصل للوصول إلى الصواب.

بعض أسواق معالجة الرسومات الموجودة بالفعل اليوم يمكنها التعامل مع أعباء عمل صغيرة، ولكن تبدأ الشروخ في الظهور فور محاولتها التوسع. أشتبه في أن ذلك يرجع إلى أنها تم بناؤها على أسس معمارية ضعيفة التصميم.

تحدٍ/فرصة أخرى لشبكات الحوسبة اللامركزية هي ضمان الموثوقية: التحقق من أن كل عقدة فعليًا توفر الطاقة الحاسوبية التي تدعي بها. حاليًا، يعتمد ذلك على سمعة الشبكة، وفي بعض الحالات، يتم تصنيف مزودي الحوسبة حسب درجات السمعة. يبدو أن تقنية البلوكشين هي الحل الطبيعي لأنظمة التحقق الغير موثوقة. تبدأ الشركات الناشئة مثل gate.io في استخدام هذه التقنية.جينسينوSpheronيسعون للحصول على نهج لا يتطلب الثقة لحل هذه المسألة.

اليوم، العديد من فرق الويب3 لا تزال تجتاز هذه التحديات، مما يعني أن الفرصة متاحة على نطاق واسع.

حجم سوق الحوسبة المركزية

ما هو حجم السوق لشبكات الحوسبة اللامركزية؟

اليوم، ربما هو مجرد جزء صغير من صناعة الحوسبة السحابية بقيمة 680 مليار دولار - 2.5 تريليون دولار. ومع ذلك، على الرغم من الاحتكاك الإضافي للمستخدمين، سيكون هناك دائمًا بعض الطلبات طالما تبقى التكاليف أقل من تلك التي توفرها مزودات التقنية التقليدية.

أعتقد أن التكاليف ستظل منخفضة في المدى القريب والمتوسط ​​بسبب مزيج من المنح التي تقدمها الرموز الرقمية وإطلاق الإمدادات من المستخدمين الذين لا يهتمون بالسعر (على سبيل المثال، إذا كنت يمكنني تأجير حاسوبي المحمول للألعاب للحصول على أموال إضافية، فأنا سعيد سواء كان الثمن 20 دولارًا أم 50 دولارًا في الشهر).

ولكن النمو الحقيقي المحتمل لشبكات الحوسبة المركزية والتوسع الحقيقي لسوق العناوين المستهدفة سيأتي عندما:

  1. يصبح تدريب النماذج الذكية المركزية عمليًا
  2. تنفجر الطلب على الاستدلال ولا تستطيع مراكز البيانات الحالية تلبيته. هذا بدأ بالفعل في التجسيد. يقول جينسن هوانغ أن الطلب على الاستدلال سيتصاعد.زيادة “بمقدار مليار مرة”.
  3. تصبح اتفاقيات مستوى الخدمة المناسبة (SLAs) متاحة، مما يعالج عقبة حرجة في اعتماد المؤسسات. حاليًا، يعمل الحوسبة اللامركزية على أساس أفضل مجهود، مما يترك المستخدمين مع مستويات متفاوتة من جودة الخدمة (على سبيل المثال، % من وقت التشغيل). بوجود SLAs، يمكن أن تقدم هذه الشبكات مقاييس الاعتمادية والأداء الموحدة، مما يجعل الحوسبة اللامركزية بديلاً قابلاً للتطبيق عن مزودي الحوسبة السحابية التقليدية.

الحوسبة المفتوحة المصدر وغير المشروطة تعد طبقة الأساس - البنية التحتية الأساسية - لنظام الذكاء الاصطناعي المفتوح المصدر.

على الرغم من التوسع المستمر في سلسلة التوريد للسيليكون (أي وحدات معالجة الرسومات) ، أعتقد أننا لا نزال في فجر عصر الذكاء البشري. سيكون هناك طلب لا يشبع على الحوسبة.

تحذير من نقطة التحول التي يمكن أن تؤدي إلى إعادة تصنيف رئيسي لجميع أسواق وحدات المعالجة الرسومية العاملة. ربما سيأتي ذلك قريبًا.

ملاحظات أخرى:

  • سوق وحدة معالجة الرسوميات الخالصة مكتظ بالتنافس بين المنصات اللامركزية وأيضا صعود الذكاء الاصطناعي للويب2 والسحب السحابية الجديدةمثل Vast.ai و Lambda.
  • العقد الصغيرة (على سبيل المثال، 4 × H100) ليست مطلوبة كثيرًا بسبب استخدامها المحدود، ولكن حظًا سعيدًا في العثور على أي شخص يبيع مجموعات كبيرة - فهي لا تزال مطلوبة بشدة.
  • هل سيجمع لاعب مهيمن كل إمدادات الحوسبة للبروتوكولات اللامركزية، أم ستظل متجزأة بين عدة أسواق؟ أنا أميل إلى الأول وتوزيع قوة القانون في النتائج، حيث يدفع التوحيد غالبًا في الكفاءة في البنية التحتية. ولكن سيستغرق الأمر وقتًا للعب، وفي الوقت نفسه، يستمر التجزئة والفوضى.
  • يُرغب من المطورين في التركيز على بناء التطبيقات، وليس التعامل مع النشر والتكوين. يجب أن تجعل الأسواق هذه العمليات أكثر تجريبية، من خلال تجريد هذه التعقيدات وتسهيل الوصول إلى الحسابات.

1.2. تدريب لامركزي

TL;dr

  • إذا كانت قوانين التحجيم صحيحة، فسيصبح تدريب جيل النماذج الجديدة المتطورة في مجال الذكاء الاصطناعي في مركز بيانات واحد يومًا ما مستحيلاً، من الناحية الفيزيائية.
  • يتطلب تدريب نماذج الذكاء الاصطناعي الكثير من نقل البيانات بين وحدات معالجة الرسوميات (GPUs). سرعة نقل البيانات المنخفضة (ارتباط الاتصال) بين GPUs الموزعة هي غالبًا أكبر حاجز.
  • يستكشف الباحثون العديد من النهج في نفس الوقت، وتحدث الاختراقات (على سبيل المثال، Open DiLoCo، DisTrO). ستكون هذه التطورات متراكمة ومتزايدة، مما يسرع من التقدم في هذا المجال.
  • ربما يكون مستقبل التدريب اللامركزي يكمن في نماذج أصغر وأكثر تخصصًا مصممة لتطبيقات الفراغات الضيقة بدلاً من النماذج الموجهة للذكاء الاصطناعي الشامل.
  • من المتوقع أن ترتفع الطلبات على الاستدلال بشكل كبير مع التحول نحو نماذج مثل o1 من OpenAI، مما يخلق فرصًا لشبكات الاستدلال اللامركزية.

تخيل ذلك: نموذج ذكاء اصطناعي ضخم ومغير للعالم، لم يتم تطويره في مختبرات نخبة سرية، بل تم إحياؤه عن طريق ملايين الأشخاص العاديين. اللاعبون، الذين تعمل بطاقاتهم الرسومية عادة على توليد انفجارات سينمائية في لعبة Call of Duty، يقدمون الآن قدرات أجهزتهم العتيدة لشيء أعظم - نموذج ذكاء اصطناعي مفتوح المصدر ومملوك بشكل جماعي بدون حواجز مركزية.

في هذا المستقبل ، ليس فقط مجال أعلى مختبرات الذكاء الاصطناعي نماذج ذات مقياس المؤسسة.

ولكن دعونا نضع هذه الرؤية على أرض الواقع اليوم. في الوقت الحالي، تظل النصيب الأكبر من تدريب الذكاء الاصطناعي الثقيل مرتبطًا بمراكز البيانات المركزية، ومن المرجح أن يظل هذا الأمر الطبيعي لبعض الوقت.

شركات مثل OpenAI تقوم بتوسيع مجموعاتها الضخمة. إيلون ماسك مؤخرًا أعلنأن xAI قريبة من الانتهاء من مركز بيانات يفخر بوجود ما يعادل 200,000 وحدة معالجة رسومات H100.

ولكن الأمر لا يتعلق فقط بعدد وحدات المعالجة الرسومية الأساسية. استخدام عمليات النقل العائمة للنموذج (MFU) - مقياس تم تقديمه في ورقة بالم من جوجلفي عام 2022 - يتتبع كيفية استخدام القدرة القصوى لوحدة معالجة الرسومات بشكل فعال. لاحظ بشكل مدهش أن MFU يتراوح عادة بين 35-40٪.

لماذا منخفضة جدًا؟ بينما ارتفع أداء وحدة معالجة الرسومات بشكل كبير على مر السنين وفقًا لقانون مور ، فإن تحسينات الشبكة والذاكرة والتخزين تأخرت بشكل كبير ، مما أدى إلى وجود عقبات. نتيجة لذلك ، تجلس وحدات معالجة الرسومات غالبًا ما تكون خاملة ، في انتظار البيانات.

تظل تدريب الذكاء الاصطناعي مركزًا للغاية اليوم بسبب كلمة واحدة - الكفاءة.

تعتمد تدريب النماذج الكبيرة على تقنيات مثل:

• توازن البيانات: تقسيم مجموعات البيانات عبر عدة وحدات معالجة الرسومات لأداء العمليات بشكل متوازي، مما يسرع عملية التدريب.

• التوازي النموذجي: توزيع أجزاء من النموذج عبر وحدات المعالجة الرسومية لتجاوز قيود الذاكرة.

هذه الطرق تتطلب وحدات معالجة الرسومات لتبادل البيانات باستمرار، مما يجعل سرعة الاتصال - معدل نقل البيانات عبر الأجهزة في الشبكة - أمرًا ضروريًا تمامًا.

عندما يمكن أن يكلف تدريب نموذج الذكاء الاصطناعي في الحدود أكثر من 1 مليار دولار، يهم كل مكسب في الكفاءة.

بفضل توصيلاتها الداخلية ذات السرعة العالية، تتيح المراكز البيانات المركزية نقل البيانات السريع بين وحدات معالجة الرسومات وتخفيض تكاليف التدريب بشكل كبير مقارنة بالإعدادات اللامركزية التي لا يمكن أن تتماثل معها بعد … ولكن في المستقبل.

تجاوز سرعة الاتصال البطيءة

إذا تحدثت مع الأشخاص العاملين في مجال الذكاء الاصطناعي، سيخبرك الكثيرون أن التدريب اللامركزي لن يعمل.

في الإعدادات المركزية ، لا تكون مجموعات وحدات معالجة الرسومات في موقع واحد ، لذلك يصبح نقل البيانات بينهما أبطأ بكثير ويصبح عائقًا. يتطلب التدريب أن تتزامن وحدات معالجة الرسومات وتبادل البيانات في كل خطوة. كلما كانت أبعد ، كلما كان التأخير أعلى. يعني التأخير الأعلى بطء سرعة التدريب وارتفاع التكاليف.

ما قد يأخذ عدة أيام في مركز بيانات مركزي يمكن أن يمتد إلى أسبوعين باستخدام نهج لامركزي بتكلفة أعلى. هذا ببساطة ليس مستدامًا.

ولكن هذا مقرر أن يتغير.

الخبر الجيد هو أن هناك اهتمامًا كبيرًا بالبحث حول التدريب الموزع. يقوم الباحثون باستكشاف عدة نهج في وقت واحد، كما يوضح ذلك كمية الدراسات والأوراق المنشورة. ستتراكم هذه التقدمات وتتفاعل مع بعضها، مما يسرع من التقدم في هذا المجال.

إنها أيضًا عن الاختبار في الإنتاج ورؤية مدى استطاعتنا دفع الحدود.

بعض تقنيات التدريب اللامركزية يمكنها بالفعل التعامل مع نماذج أصغر في بيئات الاتصال البطيءة. الآن ، يعمل البحث الحدودي على توسيع هذه الأساليب لتشمل نماذج أكبر.

  • على سبيل المثال، عقل الأمير. فتح ورقة DiCoLoتظهر نهجًا عمليًا ينطوي على “جزر” من وحدات معالجة الرسومات تقوم بأداء 500 خطوة محلية قبل التزامن ، مما يقلل من متطلبات النطاق الترددي بنسبة تصل إلى 500 مرة. ما بدأته بحوث Google DeepMind في النماذج الأصغر حاليًا تم تطويره لتدريب نموذج يحتوي على 10 مليارات معلمة في نوفمبر - وهو مفتوح المصدر بالكامل اليوم.
  • نحن نبحثترفع الشريط مع إطار DisTrO الخاصة بهم، الذي يستخدم محسنات لتقديم تقليل يصل إلى 10،000 مرة في متطلبات التواصل بين وحدات المعالجة الرسومية أثناء تدريب نموذج يحتوي على 1.2 مليار معلمة.
  • والزخم مستمر في البناء. في ديسمبر، أعلنت Nous عن التدريب المسبق لنموذج يحتوي على 15 مليار معلمة مع منحنى الفقدان (كيفية انخفاض خطأ النموذج مع مرور الوقت) ومعدل التقارب (سرعة استقرار أداء النموذج) - الذي يتطابق أو يتجاوز النتائج المعتادة التي تُرى مع إعدادات التدريب المركزية. نعم، أفضل من التدريب المركزي.
  • توازي وتفاعل السرب و DTFMHE هما طريقتان أخريان لتدريب النماذج الذكية الضخمة عبر أنواع مختلفة من الأجهزة، حتى لو كانت تلك الأجهزة لها سرعات واتصالات متفاوتة.

تحدي آخر هو إدارة مجموعة متنوعة من أجهزة GPU، بما في ذلك بطاقات الرسوميات ذات الذاكرة المحدودة المعتادة في الشبكات اللامركزية. تقنيات مثل التوازي النموذجي (تقسيم طبقات النموذج عبر الأجهزة) يمكن أن تساعد في جعل هذا ممكناً.

مستقبل التدريب اللامركزي

لا تزال طرق التدريب اللامركزية الحالية تقتصر على حجم النماذج بمقدار أقل من الحجم المتوقع (يُقال إن GPT-4 قريب من تريليون المعلمات، أكبر بمقدار 100 مرة من النموذج البالغ حجمه 10 مليارات من Prime Intellect). لتحقيق التوسع الحقيقي، سنحتاج إلى اختراقات في هندسة النموذج، وبنية الشبكة الأفضل، وتقسيم المهام الأذكى عبر الأجهزة.

ويمكننا أن نحلم بكبير. تخيل عالمًا حيث يجمع التدريب اللامركزي قوة حسابية أكبر من حتى أكبر مراكز البيانات المركزية يمكن أن تجتمع على الإطلاق.

بلوراليس ريسيرش(فريق قوي في التدريب اللامركزي ، واحد يجب مراقبته عن كثب) يجادل أن هذا ليس مجرد إمكانية - إنه لا مفر منه. مراكز بيانات مركزية مقيدة بقيود فيزيائية مثل المساحة وتوفر الطاقةبينما يمكن للشبكات غير المركزية الاستفادة من حوض موارد عالمي غير محدود بشكل فعال.

حتى أقر جنسن هوانغ من NVIDIA بأنالتدريب اللامركزي غير المتزامنيمكن أن تفتح القدرة الحقيقية لتوسيع الذكاء الاصطناعي. شبكات التدريب الموزعة أكثر تحملًا للأخطاء أيضًا.

في إحدى المستقبلات المحتملة، ستتم تدريب أقوى نماذج الذكاء الاصطناعي في العالم بطريقة لامركزية.

إنها فرصة مثيرة، لكنني لست مقتنعا بالكامل بعد. نحتاج إلى دليل أقوى يثبت أن التدريب اللامركزي لأكبر النماذج ممكن تقنيًا واقتصاديًا.

هنا حيث أرى وعدًا هائلاً: يمكن أن يكون النقطة الحلوة للتدريب اللامركزي في النماذج المفتوحة المصدر الصغيرة والمتخصصة المصممة لحالات الاستخدام المستهدفة، بدلاً من المنافسة مع النماذج الكبيرة جدًا والمدفوعة بالذكاء الاصطناعي العام الحدودي. بعض الهندسيات، خاصة النماذج غير المحولة، بالفعل تثبت ملاءمتها الطبيعية للإعدادات اللامركزية.

وهناك قطعة أخرى في هذا اللغز: الرموز. بمجرد أن يصبح التدريب اللامركزي عملياً على نطاق واسع، يمكن أن تلعب الرموز دوراً حاسماً في تحفيز المساهمين ومكافأتهم، مما يعزز هذه الشبكات بشكل فعال.

طريق الرؤية هذه طويلة، لكن التقدم مشجع بشكل كبير. تطور التدريب اللامركزي سيعود بالفائدة على الجميع - حتى شركات التكنولوجيا الكبيرة ومختبرات بحوث الذكاء الاصطناعي الرفيعة المستوى - حيث ستتجاوز مقياس نماذج المستقبل طاقة مركز بيانات واحد.

المستقبل موزع. وعندما تحمل التكنولوجيا مثل هذا الإمكانات الواسعة، يظهر التاريخ دائمًا أنها تتحسن بشكل أسرع مما يتوقعه الجميع.

1.3. الإستدلال اللامركزي

في الوقت الحالي ، يتم توجيه غالبية قوة الحوسبة في مجال الذكاء الاصطناعي لتدريب النماذج الضخمة. أفضل المختبرات في مجال الذكاء الاصطناعي في سباق محموم لتطوير أفضل النماذج الأساسية وتحقيق AGI في النهاية.

ولكن هذا هو تصوري: ستتحول هذه التركيز الحاسوبي الشديد على التدريب نحو الاستدلال في السنوات القادمة. مع تزايد تضمين الذكاء الاصطناعي في التطبيقات التي نستخدمها يومياً - من الرعاية الصحية إلى الترفيه - فإن الموارد الحسابية التي تحتاج إليها لدعم الاستدلال ستكون هائلة.

وليس فقط تكهنًا. تكبير مقياس الحوسبة في وقت الاستدلال هو أحدث كلمة متداولة في مجال الذكاء الاصطناعي. أصدرت OpenAI مؤخرًا نسخة معاينة / صغيرة من طرازها الأحدث، o1 (الاسم الرمزي: Strawberry) والتحول الكبير؟ يأخذ وقته للتفكير أولاً من خلال سؤال نفسه ما هي الخطوات التي يجب أن يتخذها للإجابة على السؤال، ثم يمر بكل من تلك الخطوات.

تم تصميم هذا النموذج للمهام الأكثر تعقيدًا والتي تتطلب التخطيط الشديد، مثل حل الألغاز المتقاطعة— ويواجه المشاكل التي تتطلب تفكيرًا أعمق. ستلاحظ أنها أبطأ، مستغرقة وقتًا أطول لتوليد الردود، ولكن النتائج أكثر تفكيرًا وتعقيدًا. كما أنها أكثر تكلفة للتشغيل (25 مرة تكلفة GPT-4)

التحول في التركيز واضح: النقلة التالية في أداء الذكاء الاصطناعي لن تأتي فقط من تدريب نماذج أكبر ولكن أيضًا من زيادة استخدام الحسابات أثناء الاستدلال.

إذا كنت ترغب في قراءة المزيد، فهناك العديد من الأبحاثأوراقتوضيح:

  • تؤدي توسيع الحوسبة المستنتجة من خلال العينات المتكررة إلى تحسينات كبيرة عبر مختلف المهام.
  • هناك قانون تسلسلي متسارع للاستنتاج أيضًا.

بمجرد تدريب النماذج القوية، يمكن نقل مهام الاستدلال الخاصة بها - حيث تقوم النماذج بأداء المهام - إلى شبكات الحوسبة اللامركزية. هذا يبدو منطقيًا للغاية لأن:

  • الاستدلال يستهلك موارد أقل بكثير من التدريب. بمجرد التدريب، يمكن ضغط النماذج وتحسينها باستخدام تقنيات مثل التكامل، القص والتقطير. يمكن حتى تقسيمها باستخدام التوازي التدفقي أو الأنابيب لتشغيلها على أجهزة المستهلك اليومية. لا تحتاج إلى بطاقة رسومات GPU عالية الأداء لتشغيل الاستدلال.
  • إنها تحدث بالفعل.إكسو لابزاكتشفت كيفية تشغيل نموذج Llama3 بمعلمة 450B على أجهزة الأجهزة الاستهلاكية مثل أجهزة MacBooks و Mac Minis. يمكن التعامل مع الاستدلال الموزع عبر العديد من الأجهزة حتى يتم التعامل مع أعباء العمل بكفاءة وبتكلفة منخفضة.
  • تجربة مستخدم أفضل. تشغيل الحسابات بالقرب من المستخدم يقلل من التأخير، وهو أمر حاسم لتطبيقات الوقت الحقيقي مثل الألعاب والواقع المعزز أو السيارات القيادة الذاتية. كل ميلي ثانية يهم.

فكر في التحقق المتمركز كخدمة تسليم المحتوى (CDN) للذكاء الاصطناعي: بدلاً من توصيل المواقع بسرعة عن طريق الاتصال بالخوادم القريبة ، يستخدم التحقق المتمركز قوة الحوسبة المحلية لتوصيل إجابات الذكاء الاصطناعي في وقت قياسي. من خلال تبني التحقق المتمركز ، تصبح تطبيقات الذكاء الاصطناعي أكثر كفاءة واستجابة وموثوقية.

الاتجاه واضح. رقاقة M4 Pro الجديدة من Appleتنافس NVIDIARTX 3070 Ti - بطاقة رسومات كانت في السابق حكرًا على اللاعبين المحترفين. الأجهزة التي لدينا بالفعل قادرة بشكل متزايد على التعامل مع أعباء العمل الذكاء الاصطناعي المتقدمة.

مجال العملات الرقمية القيمة المضافة

لنجاح شبكات الاستنتاج اللامركزية، يجب أن تكون هناك حوافز اقتصادية مقنعة للمشاركة. يجب تعويض العقد في الشبكة عن مساهماتهم في الحوسبة. يجب أن يضمن النظام توزيعًا عادلًا وفعالًا للمكافآت. التنوع الجغرافي أمر أساسي لتقليل التأخير في مهام الاستنتاج وتحسين تحمل الأخطاء.

وما هو أفضل طريقة لبناء شبكات متمركزة؟ مجال العملات الرقمية.

الرموز توفر آلية قوية لتوحيد مصالح المشاركين، مما يضمن أن الجميع يعملون نحو نفس الهدف: توسيع الشبكة وزيادة قيمة الرمز.

الرموز تقوم أيضًا بتعزيز نمو الشبكة بشكل كبير. إنها تساعد في حل مشكلة الدجاجة والبيضة الكلاسيكية التي تعطل معظم الشبكات من خلال مكافأة المتبنين المبكرين وتعزيز المشاركة من اليوم الأول.

نجاح بيتكوين وإيثيريوم يثبت هذه النقطة - لقد جمعوا بالفعل أكبر حمامات للطاقة الحسابية على وجه الكوكب.

شبكات الاستدلال اللامركزية هي التالية في الطابور. مع التنوع الجغرافي، يقللون من التأخير، ويحسنون تحمل الأخطاء، ويقربون الذكاء الاصطناعي من المستخدم. ومع حوافز العملات الرقمية، ستتوسع بشكل أسرع وأفضل مما يمكن أن تفعله الشبكات التقليدية على الإطلاق.

تنصل المسؤولية:

  1. يتم إعادة طبع هذه المقالة من gate[[](https://www.chainofthought.xyz/p/our-crypto-ai-thesis-part-ii-decentralised-compute)[سلسلة من الأفكار](https://www.chainofthought.xyz/)\]. جميع حقوق الطبع والنشر تنتمي إلى الكاتب الأصلي [تنغ يان]. إذا كانت هناك اعتراضات على هذه الإعادة الطبع، يرجى الاتصال بـبوابة تعلمالفريق، وسوف يتولونه على الفور.
  2. إخلاء المسؤولية عن المسؤولية: الآراء والآراء المعبر عنها في هذه المقالة هي فقط تلك للكاتب ولا تشكل أي نصيحة استثمارية.
  3. يتم تنفيذ ترجمات المقالة إلى لغات أخرى بواسطة فريق Gate Learn. ما لم يتم ذكره، فإنه يُمنع نسخ أو توزيع أو سرقة المقالات المترجمة.

أطروحتنا حول الذكاء الاصطناعي في مجال العملات الرقمية (الجزء الثاني): الحوسبة اللامركزية هي الملك

متقدم12/18/2024, 2:25:18 AM
في الجزء الثاني من أطروحتي، سأغوص في أربعة من أكثر القطاعات الفرعية وعدًا لازمًا في Crypto AI: الحوسبة اللامركزية: تدريب واستنتاج & أسواق وحدات معالجة الرسومات، الشبكات البيانات، الذكاء الاصطناعي الموثوق، ووكلاء الذكاء الاصطناعي العائشين على السلسلة. هذه القطعة تمثل تتويج أسابيع من البحث العميق والمحادثات مع المؤسسين والفرق في منظر Crypto AI. ليس من المقصود أن يكون هذا الجزء غطاءًا شاملاً لكل قطاع - هذه حفرة أخرى ليوم آخر.

لم أهز هذا الفقدان الكبير.

لا يزال يطاردني لأنه كان أكثر رهان واضح لأي شخص يهتم، ومع ذلك لم أستثمر دولار واحد.

لا ، لم يكن القاتل التالي لـ سولانا أو عملة ميمية تحمل كلبًا يرتدي قبعة مضحكة.

كانت … نفيديا.

سعر سهم NVDA منذ بداية العام. المصدر: جوجل

في عام واحد فقط، زادت قيمة NVDA بنسبة 3 مرات، حيث ارتفعت من 1 تريليون دولار إلى 3 تريليون دولار. حتى تفوقت على بيتكوين خلال نفس الفترة.

بالتأكيد، بعض هذا هو تضخيم للذكاء الاصطناعي. ولكن جزءاً هائلاً منه مرتبط بالواقع. أعلنت NVIDIA عن إيرادات بقيمة 60 مليار دولار في السنة المالية 2024، وهو زيادة مذهلة بنسبة 126% عن عام 2023. تم دفع هذه الزيادة من قبل كبار شركات التكنولوجيا الكبرى التي تنافس في سباق عالمي للذكاء الاصطناعي نحو الذكاء الاصطناعي العام.

لماذا فاتني ذلك؟

لمدة عامين، كنت مركزًا بشكل كبير على مجال العملات الرقمية ولم ألتفت إلى ما يحدث في مجال الذكاء الاصطناعي. كانت هذه خطأ كبير، ولا يزال يؤرقني.

لكنني لا أرتكب نفس الخطأ مرتين.

اليوم، يبدو مجال العملات الرقمية AI مشابهًا بشكل غريب. نحن على شفا حدث انفجار في التقنية. الشبه باندفاع الذهب في كاليفورنيا في منتصف القرن التاسع عشر من الصعب تجاهله - ظهرت الصناعات والمدن فجأة، وتقدمت البنية التحتية بسرعة هائلة، وتحققت الثروات من قبل أولئك الذين جرأوا على القفز.

مثل نفيديا في أيامها الأولى، سيبدو Crypto AI واضحًا في وقت لاحق.

فيالجزء الأول من أطروحتي, لقد شرحت لماذا مجال العملات الرقمية AI هو فرصة الظلام الأكثر إثارة للمستثمرين والبناة اليوم.

ها هو إعادة تلخيص سريعة:

  • الكثيرون ما زالوا يرفضونه كـ “vaporware”.
  • مجال العملات الرقمية الذكاء الاصطناعي في مرحلته المبكرة - على الأرجح بعيدة عن ذروة الضجة 1-2 سنوات.
  • هناك فرصة نمو تبلغ أكثر من 230 مليار دولار في هذا المجال، على الأقل.

عند نظرًا لجوهرها، تعد Crypto AI هي AI مع البنية التحتية للعملة المشفرة المضافة فوقها. هذا يعني أنه من المرجح أن تتبع نمو AI الأسي في السوق المشفرة بشكل أوسع. لذا، للبقاء في المقدمة، يجب عليك الاهتمام بأحدث الأبحاث الخاصة بـ AI على Arxiv والتحدث إلى المؤسسين الذين يعتقدون أنهم يبنون الشيء الكبير التالي.

في الجزء الثاني من أطروحتي، سأغوص في أربعة من أكثر القطاعات الفرعية الواعدة في مجال العملات الرقمية AI:

  1. الحوسبة اللامركزية: تدريب واستدلال وأسواق وحدة المعالجة الرسومية
  2. شبكات البيانات
  3. الذكاء الاصطناعي القابل للتحقق
  4. وكلاء الذكاء الاصطناعي الذين يعيشون على السلسلة

يمثل هذا القطعة نتيجة أسابيع من البحث العميق والمحادثات مع المؤسسين والفرق في مجال العملات الرقمية الذكاء الاصطناعي. لم يتم تصميمه ليكون استكشافًا عميقًا شاملاً لكل قطاع - هذا حفرة الأرنب ليوم آخر.

بدلاً من ذلك، اعتبره خارطة طريق عامة صممت لإثارة الفضول، وشحذ بحثك، وتوجيه التفكير في الاستثمار.

رسم الخريطة العامة

أتخيل مكدس الذكاء الاصطناعي غير المركزي كنظام بيئي متدرج: يبدأ بالحوسبة غير المركزية وشبكات البيانات المفتوحة من جهة، التي تدعم تدريب نماذج الذكاء الاصطناعي غير المركزي.

يتم التحقق من كل استنتاج بعد ذلك - سواء كانت المدخلات أو المخرجات - باستخدام مزيج من علم التشفير والحوافز العملية الرقمية وشبكات التقييم. تتدفق هذه المخرجات المتحققة إلى وكلاء الذكاء الاصطناعي الذين يمكنهم العمل بشكل مستقل على السلسلة الرئيسية، وكذلك تطبيقات الذكاء الاصطناعي للمستهلكين والمؤسسات التي يمكن للمستخدمين الوثوق بها بالفعل.

تربط شبكات التنسيق كل شيء معًا، مما يتيح التواصل والتعاون بسلاسة عبر النظام البيئي.

في هذه الرؤية، يمكن لأي شخص يقوم ببناء في مجال الذكاء الاصطناعي الاستفادة من طبقات واحدة أو أكثر من هذا النموذج، اعتمادًا على احتياجاتهم الخاصة. سواء كان ذلك بالاستفادة من الحوسبة المفتوحة المركزية لتدريب النماذج أو باستخدام شبكات التقييم لضمان الإخراج عالي الجودة، يوفر هذا النموذج مجموعة من الخيارات.

بفضل تكامل بلوكتشين الكامن، أعتقد أننا نتجه بشكل طبيعي نحو مستقبل قابل للتعديل. كل طبقة تصبح متخصصة للغاية، مع بروتوكولات محسنة لوظائف متميزة بدلاً من نهج متكامل للجميع في واحد.

المصدر: topology.vc

لقد حدث انفجار كامبري من الشركات الناشئة التي تعمل على كل طبقة من طبقات كومة الذكاء الاصطناعي المتمركز، معظمها تأسست في السنوات الأخيرة فقط. من الواضح: إننا ما زلنا في بداية الطريق.

أكثر خريطة شاملة وحديثة لمشهد الشركات الناشئة للذكاء الاصطناعي في المجال العملات الرقمية التي رأيتها محافظة من قبل كيسي وفريقها هنا فيtopology.vc. إنه مصدر لا يقدر بثمن لأي شخص يتتبع المجال.

أثناء استكشافي لمجال العملات الرقمية الفرعية للذكاء الاصطناعي، أسأل نفسي باستمرار: ما حجم الفرصة هنا؟ أنا لست مهتمًا بالرهانات الصغيرة - أنا أبحث عن الأسواق التي يمكن أن تتوسع إلى مئات المليارات.

1. حجم السوق

لنبدأ بحجم السوق. عند تقييم قطاع فرعي، أسأل نفسي: هل يخلق سوقًا جديدًا أم يعمل على تعطيل سوق موجود؟

خذ الحوسبة المركزية على سبيل المثال. إنها فئة مختلفة تمامًا ويمكن تقدير إمكانياتها من خلال النظر إلى سوق الحوسبة السحابية المعتمدة، والتي تبلغ قيمتها تقريبًا ~$680B اليوم ومن المتوقع أن تصل إلى 2.5 تريليون دولار في عام 2032.

الأسواق الجديدة التي ليس لها سابق ومثال، مثل وكلاء الذكاء الاصطناعي، أصعب في تقديرها. بدون بيانات تاريخية، يتضمن تحديدها مزيجًا من التخمينات المدروسة والتحققات الداخلية حول المشاكل التي يتم حلها. والفخ هو أنه في بعض الأحيان، ما يبدو وكأنه سوق جديد هو في الواقع مجرد حل يبحث عن مشكلة.

2. التوقيت

التوقيت هو كل شيء. يميل التكنولوجيا إلى التحسن وأصبح أرخص مع مرور الوقت، ولكن وتيرة التقدم تختلف.

ما مدى نضج التكنولوجيا في قطاع فرعي معين؟ هل هو جاهز للتوسع ، أم أنه لا يزال في مرحلة البحث ، مع تطبيقات عملية على بعد سنوات؟ يحدد التوقيت ما إذا كان القطاع يستحق اهتماما فوريا أو يجب تركه في فئة “الانتظار والترقب”.

لنأخذ التشفير التام للتطبيقات (FHE) كمثال: لا يوجد شك في الإمكانات الكبيرة له، ولكنه لا يزال بطيئًا جدًا للاستخدام الواسع النطاق. ربما نحتاج إلى سنوات عدة قبل أن نرى انتشاره الواسع. من خلال التركيز على القطاعات التي تقترب من التوسع أولاً، يمكنني قضاء وقتي وطاقتي حيث يتم بناء الزخم والفرص.

إذا كنت ستقوم بتعيين هذه الفئات على مخطط حجم مقابل توقيت، فإنه سيبدو على هذا النحو. تذكر أن هذا هو أكثر من رسم تخطيطي تصوري من دليل صارم وثابت. هناك الكثير من التفاصيل الدقيقة ، على سبيل المثال ، في التأكيد القابل للتحقق ، هناك نهج مختلف مثل zkML و opML على مستويات جاهزية مختلفة للاستخدام.

هذا قال، أنا مقتنع بأن مقياس الذكاء الاصطناعي سيكون ضخمًا لدرجة أن ما يبدو “متخصصًا” اليوم يمكن أن يتطور إلى سوق هامة.

من الجدير بالذكر أيضًا أن التقدم التكنولوجي لا يلتزم دائمًا بخط مستقيم — فإنه غالبًا ما يحدث بشكل فجائي. ستتغير آرائي حول التوقيت وحجم السوق عند حدوث اختراقات طارئة.

مع هذا الإطار في الاعتبار، دعونا نقسم كل قطاع فرعي.

القطاع 1: الحوسبة اللامركزية

في الأخير، لم يُقرأ

  • الحوسبة اللامركزية هي العمود الفقري للذكاء الاصطناعي اللامركزي.
  • أسواق وحدة معالجة الرسومات والتدريب المركزي والاستنتاج المركزي مترابطة بشكل وثيق وتزدهر معًا.
  • يأتي الجانب المعروض عادةً من مراكز بيانات متوسطة الحجم وبطاقات الرسومات للمستهلكين.
  • الجانب الطلب صغير ولكنه في تزايد. اليوم، يأتي من مستخدمين حساسين للسعر وغير حساسين للتأخير وشركات البداية الصغيرة في مجال الذكاء الاصطناعي.
  • أكبر تحدي لأسواق وحدة المعالجة المركزية GPU لـ Web3 اليوم هو في الواقع جعلها تعمل.
  • تتطلب تنسيق وحدات معالجة الرسوميات عبر شبكة مركزية متطورة هندسة متقدمة وهندسة شبكة قوية ومصممة بشكل جيد.

1.1. أسواق وحوسبة GPU / شبكات الحوسبة

عدة فرق Crypto AI تتموضع للاستفادة من نقص وحدات المعالجة الرسومية بالمقارنة مع الطلب عبر بناء شبكات مركزية تستفيد من مجموعة الطاقة الحسابية الكامنة العالمية.

القيمة الأساسية المقترحة لأسواق وحدة معالجة الرسومات هي ثلاثية:

  1. يمكنك الوصول إلى الحوسبة بتكلفة “تصل إلى 90% أرخص” من خدمة AWS، وذلك بفضل (1) إزالة الوسطاء و (2) فتح الجانب المعروض. في الأساس، تسمح لك هذه الأسواق بالاستفادة من أدنى تكلفة حوسبة طفيفة في جميع أنحاء العالم.
  2. مرونة أكبر: لا توجد عقود قفل، لا يوجد تحقق من الهوية، لا توجد أوقات انتظار.
  3. مقاومة الرقابة

للتصدي لجانب العرض في السوق، تقوم هذه المتاجر بالحصول على المعلومات الحسابية من:

  • وحدات معالجة الرسومات على مستوى المؤسسات (مثل A100s و H100s) من مراكز البيانات الصغيرة والمتوسطة المستوى التي تكافح للعثور على الطلب بمفردها أو عمال مناجم Bitcoin الذين يتطلعون إلى التنويع. أعرف أيضا فرقا تستفيد من مشاريع البنية التحتية الكبيرة التي تمولها الحكومة ، حيث تم بناء مراكز البيانات كجزء من مبادرات نمو التكنولوجيا. غالبا ما يتم تحفيز هؤلاء المزودين للاحتفاظ بوحدات معالجة الرسومات الخاصة بهم على الشبكة ، مما يساعدهم على تعويض تكاليف استهلاك وحدات معالجة الرسومات الخاصة بهم.
  • وحدات معالجة الرسوميات للمستهلكين من ملايين اللاعبين والمستخدمين المنزليين الذين يقومون بتوصيل أجهزة الكمبيوتر الخاصة بهم بالشبكة مقابل حوافز الرموز

من ناحية أخرى ، يأتي الطلب على الحوسبة المركزية المفتوحة اليوم من:

  1. المستخدمون الحساسون للسعر وغير الحساسين لزمن الوصول. يعطي هذا الجزء الأولوية للقدرة على تحمل التكاليف على السرعة. فكر في الباحثين الذين يستكشفون مجالات جديدة ، ومطوري الذكاء الاصطناعي المستقلة ، وغيرهم من المستخدمين المهتمين بالتكلفة الذين لا يحتاجون إلى معالجة في الوقت الفعلي. نظرا لقيود الميزانية ، قد يعاني الكثير منهم مع أدوات التحجيم الفائقة التقليدية مثل AWS أو Azure. نظرا لأنها موزعة تماما بين السكان ، فإن التسويق المستهدف أمر بالغ الأهمية لجلب هذه المجموعة على متن الطائرة.
  2. تواجه الشركات الناشئة الصغيرة في مجال الذكاء الاصطناعي تحديات في تأمين موارد الحساب القابلة للتوسعة والمرنة دون الالتزام بعقود طويلة الأمد مع مزودي الخدمات السحابية الرئيسيين. تعتبر تطوير الأعمال أمرًا حيويًا لجذب هذا القطاع، حيث يبحثون بنشاط عن بدائل للقفل التقني.
  3. مشاريع الذكاء الاصطناعي في مجال العملات الرقمية التي تقوم ببناء منتجات الذكاء الاصطناعي اللامركزية ولكن بدون إمكانية الوصول إلى توريد الحوسبة الخاص بها سيحتاجون إلى الاستفادة من موارد أحد هذه الشبكات.
  4. الألعاب السحابية: على الرغم من أنها ليست مدفوعة مباشرة بالذكاء الاصطناعي، إلا أن الألعاب السحابية تعتبر مصدرًا متزايد الطلب على موارد وحدة معالجة الرسومات.

الشيء الرئيسي لتذكره: يولي المطورون دائمًا أولوية للتكاليف والموثوقية.

التحدي الحقيقي: الطلب، ليس العرض

تعتبر الشركات الناشئة في هذا المجال غالبًا حجم شبكات إمدادها بوحدات معالجة الرسومات (GPU) علامة على النجاح. ولكن هذا أمر مضلل - إنه مقياس تفاخر فقط.

القيد الحقيقي ليس العرض بل الطلب. القياسات الرئيسية لتتبعها ليست عدد وحدات المعالجة الرسومية المتاحة، بل معدل الاستخدام وعدد وحدات المعالجة الرسومية التي تم تأجيرها فعلياً.

الرموز ممتازة في تشغيل الجانب العرضي، مما يخلق الحوافز اللازمة للتوسع بسرعة. ومع ذلك، فهي لا تحل بشكل ذاتي مشكلة الطلب. الاختبار الحقيقي هو الحصول على المنتج إلى حالة جيدة بما يكفي حيث يتجسد الطلب الكامن.

يضع Haseeb Qureshi (Dragonfly) الأفضل:

جعل شبكات الحوسبة تعمل فعلاً

على العكس من الاعتقاد الشائع، أكبر عقبة أمام أسواق وحدة معالجة الرسومات الموزعة على الويب3 اليوم هي ببساطة جعلها تعمل بشكل صحيح.

هذه ليست مشكلة تافهة.

تنظيم وحدات معالجة الرسوميات عبر شبكة موزعة معقد، مع طبقات من التحديات - توزيع الموارد، تحجيم الأعباء الديناميكية، توازن الحمل عبر العقد ووحدات معالجة الرسوميات، إدارة التأخير، نقل البيانات، تحمل الأخطاء، ومعالجة أجهزة متنوعة متناثرة عبر جغرافيات مختلفة. يمكنني الاستمرار في الحديث.

تحقيق ذلك يتطلب هندسة جادة وهيكلية شبكة متينة ومصممة بشكل صحيح.

لو ضعنا الأمور في سياقها، فإننا نجد أن Kubernetes الخاص بـ Google يُعتبر على نطاق واسع كمعيار ذهبي لتنظيم الحاويات، حيث يقوم بتلقين العمليات مثل توازن الحمل وتوسيع القدرات في بيئات موزعة، وهي تحديات متشابهة جدًا لتلك التي تواجهها شبكات وحدات المعالجة المركزية الموزعة. تم بناء Kubernetes نفسه على أكثر من عقد من الزمان من تجربة Google، وحتى ذلك الحين، استغرق الأمر سنوات من التكرار المتواصل للوصول إلى الصواب.

بعض أسواق معالجة الرسومات الموجودة بالفعل اليوم يمكنها التعامل مع أعباء عمل صغيرة، ولكن تبدأ الشروخ في الظهور فور محاولتها التوسع. أشتبه في أن ذلك يرجع إلى أنها تم بناؤها على أسس معمارية ضعيفة التصميم.

تحدٍ/فرصة أخرى لشبكات الحوسبة اللامركزية هي ضمان الموثوقية: التحقق من أن كل عقدة فعليًا توفر الطاقة الحاسوبية التي تدعي بها. حاليًا، يعتمد ذلك على سمعة الشبكة، وفي بعض الحالات، يتم تصنيف مزودي الحوسبة حسب درجات السمعة. يبدو أن تقنية البلوكشين هي الحل الطبيعي لأنظمة التحقق الغير موثوقة. تبدأ الشركات الناشئة مثل gate.io في استخدام هذه التقنية.جينسينوSpheronيسعون للحصول على نهج لا يتطلب الثقة لحل هذه المسألة.

اليوم، العديد من فرق الويب3 لا تزال تجتاز هذه التحديات، مما يعني أن الفرصة متاحة على نطاق واسع.

حجم سوق الحوسبة المركزية

ما هو حجم السوق لشبكات الحوسبة اللامركزية؟

اليوم، ربما هو مجرد جزء صغير من صناعة الحوسبة السحابية بقيمة 680 مليار دولار - 2.5 تريليون دولار. ومع ذلك، على الرغم من الاحتكاك الإضافي للمستخدمين، سيكون هناك دائمًا بعض الطلبات طالما تبقى التكاليف أقل من تلك التي توفرها مزودات التقنية التقليدية.

أعتقد أن التكاليف ستظل منخفضة في المدى القريب والمتوسط ​​بسبب مزيج من المنح التي تقدمها الرموز الرقمية وإطلاق الإمدادات من المستخدمين الذين لا يهتمون بالسعر (على سبيل المثال، إذا كنت يمكنني تأجير حاسوبي المحمول للألعاب للحصول على أموال إضافية، فأنا سعيد سواء كان الثمن 20 دولارًا أم 50 دولارًا في الشهر).

ولكن النمو الحقيقي المحتمل لشبكات الحوسبة المركزية والتوسع الحقيقي لسوق العناوين المستهدفة سيأتي عندما:

  1. يصبح تدريب النماذج الذكية المركزية عمليًا
  2. تنفجر الطلب على الاستدلال ولا تستطيع مراكز البيانات الحالية تلبيته. هذا بدأ بالفعل في التجسيد. يقول جينسن هوانغ أن الطلب على الاستدلال سيتصاعد.زيادة “بمقدار مليار مرة”.
  3. تصبح اتفاقيات مستوى الخدمة المناسبة (SLAs) متاحة، مما يعالج عقبة حرجة في اعتماد المؤسسات. حاليًا، يعمل الحوسبة اللامركزية على أساس أفضل مجهود، مما يترك المستخدمين مع مستويات متفاوتة من جودة الخدمة (على سبيل المثال، % من وقت التشغيل). بوجود SLAs، يمكن أن تقدم هذه الشبكات مقاييس الاعتمادية والأداء الموحدة، مما يجعل الحوسبة اللامركزية بديلاً قابلاً للتطبيق عن مزودي الحوسبة السحابية التقليدية.

الحوسبة المفتوحة المصدر وغير المشروطة تعد طبقة الأساس - البنية التحتية الأساسية - لنظام الذكاء الاصطناعي المفتوح المصدر.

على الرغم من التوسع المستمر في سلسلة التوريد للسيليكون (أي وحدات معالجة الرسومات) ، أعتقد أننا لا نزال في فجر عصر الذكاء البشري. سيكون هناك طلب لا يشبع على الحوسبة.

تحذير من نقطة التحول التي يمكن أن تؤدي إلى إعادة تصنيف رئيسي لجميع أسواق وحدات المعالجة الرسومية العاملة. ربما سيأتي ذلك قريبًا.

ملاحظات أخرى:

  • سوق وحدة معالجة الرسوميات الخالصة مكتظ بالتنافس بين المنصات اللامركزية وأيضا صعود الذكاء الاصطناعي للويب2 والسحب السحابية الجديدةمثل Vast.ai و Lambda.
  • العقد الصغيرة (على سبيل المثال، 4 × H100) ليست مطلوبة كثيرًا بسبب استخدامها المحدود، ولكن حظًا سعيدًا في العثور على أي شخص يبيع مجموعات كبيرة - فهي لا تزال مطلوبة بشدة.
  • هل سيجمع لاعب مهيمن كل إمدادات الحوسبة للبروتوكولات اللامركزية، أم ستظل متجزأة بين عدة أسواق؟ أنا أميل إلى الأول وتوزيع قوة القانون في النتائج، حيث يدفع التوحيد غالبًا في الكفاءة في البنية التحتية. ولكن سيستغرق الأمر وقتًا للعب، وفي الوقت نفسه، يستمر التجزئة والفوضى.
  • يُرغب من المطورين في التركيز على بناء التطبيقات، وليس التعامل مع النشر والتكوين. يجب أن تجعل الأسواق هذه العمليات أكثر تجريبية، من خلال تجريد هذه التعقيدات وتسهيل الوصول إلى الحسابات.

1.2. تدريب لامركزي

TL;dr

  • إذا كانت قوانين التحجيم صحيحة، فسيصبح تدريب جيل النماذج الجديدة المتطورة في مجال الذكاء الاصطناعي في مركز بيانات واحد يومًا ما مستحيلاً، من الناحية الفيزيائية.
  • يتطلب تدريب نماذج الذكاء الاصطناعي الكثير من نقل البيانات بين وحدات معالجة الرسوميات (GPUs). سرعة نقل البيانات المنخفضة (ارتباط الاتصال) بين GPUs الموزعة هي غالبًا أكبر حاجز.
  • يستكشف الباحثون العديد من النهج في نفس الوقت، وتحدث الاختراقات (على سبيل المثال، Open DiLoCo، DisTrO). ستكون هذه التطورات متراكمة ومتزايدة، مما يسرع من التقدم في هذا المجال.
  • ربما يكون مستقبل التدريب اللامركزي يكمن في نماذج أصغر وأكثر تخصصًا مصممة لتطبيقات الفراغات الضيقة بدلاً من النماذج الموجهة للذكاء الاصطناعي الشامل.
  • من المتوقع أن ترتفع الطلبات على الاستدلال بشكل كبير مع التحول نحو نماذج مثل o1 من OpenAI، مما يخلق فرصًا لشبكات الاستدلال اللامركزية.

تخيل ذلك: نموذج ذكاء اصطناعي ضخم ومغير للعالم، لم يتم تطويره في مختبرات نخبة سرية، بل تم إحياؤه عن طريق ملايين الأشخاص العاديين. اللاعبون، الذين تعمل بطاقاتهم الرسومية عادة على توليد انفجارات سينمائية في لعبة Call of Duty، يقدمون الآن قدرات أجهزتهم العتيدة لشيء أعظم - نموذج ذكاء اصطناعي مفتوح المصدر ومملوك بشكل جماعي بدون حواجز مركزية.

في هذا المستقبل ، ليس فقط مجال أعلى مختبرات الذكاء الاصطناعي نماذج ذات مقياس المؤسسة.

ولكن دعونا نضع هذه الرؤية على أرض الواقع اليوم. في الوقت الحالي، تظل النصيب الأكبر من تدريب الذكاء الاصطناعي الثقيل مرتبطًا بمراكز البيانات المركزية، ومن المرجح أن يظل هذا الأمر الطبيعي لبعض الوقت.

شركات مثل OpenAI تقوم بتوسيع مجموعاتها الضخمة. إيلون ماسك مؤخرًا أعلنأن xAI قريبة من الانتهاء من مركز بيانات يفخر بوجود ما يعادل 200,000 وحدة معالجة رسومات H100.

ولكن الأمر لا يتعلق فقط بعدد وحدات المعالجة الرسومية الأساسية. استخدام عمليات النقل العائمة للنموذج (MFU) - مقياس تم تقديمه في ورقة بالم من جوجلفي عام 2022 - يتتبع كيفية استخدام القدرة القصوى لوحدة معالجة الرسومات بشكل فعال. لاحظ بشكل مدهش أن MFU يتراوح عادة بين 35-40٪.

لماذا منخفضة جدًا؟ بينما ارتفع أداء وحدة معالجة الرسومات بشكل كبير على مر السنين وفقًا لقانون مور ، فإن تحسينات الشبكة والذاكرة والتخزين تأخرت بشكل كبير ، مما أدى إلى وجود عقبات. نتيجة لذلك ، تجلس وحدات معالجة الرسومات غالبًا ما تكون خاملة ، في انتظار البيانات.

تظل تدريب الذكاء الاصطناعي مركزًا للغاية اليوم بسبب كلمة واحدة - الكفاءة.

تعتمد تدريب النماذج الكبيرة على تقنيات مثل:

• توازن البيانات: تقسيم مجموعات البيانات عبر عدة وحدات معالجة الرسومات لأداء العمليات بشكل متوازي، مما يسرع عملية التدريب.

• التوازي النموذجي: توزيع أجزاء من النموذج عبر وحدات المعالجة الرسومية لتجاوز قيود الذاكرة.

هذه الطرق تتطلب وحدات معالجة الرسومات لتبادل البيانات باستمرار، مما يجعل سرعة الاتصال - معدل نقل البيانات عبر الأجهزة في الشبكة - أمرًا ضروريًا تمامًا.

عندما يمكن أن يكلف تدريب نموذج الذكاء الاصطناعي في الحدود أكثر من 1 مليار دولار، يهم كل مكسب في الكفاءة.

بفضل توصيلاتها الداخلية ذات السرعة العالية، تتيح المراكز البيانات المركزية نقل البيانات السريع بين وحدات معالجة الرسومات وتخفيض تكاليف التدريب بشكل كبير مقارنة بالإعدادات اللامركزية التي لا يمكن أن تتماثل معها بعد … ولكن في المستقبل.

تجاوز سرعة الاتصال البطيءة

إذا تحدثت مع الأشخاص العاملين في مجال الذكاء الاصطناعي، سيخبرك الكثيرون أن التدريب اللامركزي لن يعمل.

في الإعدادات المركزية ، لا تكون مجموعات وحدات معالجة الرسومات في موقع واحد ، لذلك يصبح نقل البيانات بينهما أبطأ بكثير ويصبح عائقًا. يتطلب التدريب أن تتزامن وحدات معالجة الرسومات وتبادل البيانات في كل خطوة. كلما كانت أبعد ، كلما كان التأخير أعلى. يعني التأخير الأعلى بطء سرعة التدريب وارتفاع التكاليف.

ما قد يأخذ عدة أيام في مركز بيانات مركزي يمكن أن يمتد إلى أسبوعين باستخدام نهج لامركزي بتكلفة أعلى. هذا ببساطة ليس مستدامًا.

ولكن هذا مقرر أن يتغير.

الخبر الجيد هو أن هناك اهتمامًا كبيرًا بالبحث حول التدريب الموزع. يقوم الباحثون باستكشاف عدة نهج في وقت واحد، كما يوضح ذلك كمية الدراسات والأوراق المنشورة. ستتراكم هذه التقدمات وتتفاعل مع بعضها، مما يسرع من التقدم في هذا المجال.

إنها أيضًا عن الاختبار في الإنتاج ورؤية مدى استطاعتنا دفع الحدود.

بعض تقنيات التدريب اللامركزية يمكنها بالفعل التعامل مع نماذج أصغر في بيئات الاتصال البطيءة. الآن ، يعمل البحث الحدودي على توسيع هذه الأساليب لتشمل نماذج أكبر.

  • على سبيل المثال، عقل الأمير. فتح ورقة DiCoLoتظهر نهجًا عمليًا ينطوي على “جزر” من وحدات معالجة الرسومات تقوم بأداء 500 خطوة محلية قبل التزامن ، مما يقلل من متطلبات النطاق الترددي بنسبة تصل إلى 500 مرة. ما بدأته بحوث Google DeepMind في النماذج الأصغر حاليًا تم تطويره لتدريب نموذج يحتوي على 10 مليارات معلمة في نوفمبر - وهو مفتوح المصدر بالكامل اليوم.
  • نحن نبحثترفع الشريط مع إطار DisTrO الخاصة بهم، الذي يستخدم محسنات لتقديم تقليل يصل إلى 10،000 مرة في متطلبات التواصل بين وحدات المعالجة الرسومية أثناء تدريب نموذج يحتوي على 1.2 مليار معلمة.
  • والزخم مستمر في البناء. في ديسمبر، أعلنت Nous عن التدريب المسبق لنموذج يحتوي على 15 مليار معلمة مع منحنى الفقدان (كيفية انخفاض خطأ النموذج مع مرور الوقت) ومعدل التقارب (سرعة استقرار أداء النموذج) - الذي يتطابق أو يتجاوز النتائج المعتادة التي تُرى مع إعدادات التدريب المركزية. نعم، أفضل من التدريب المركزي.
  • توازي وتفاعل السرب و DTFMHE هما طريقتان أخريان لتدريب النماذج الذكية الضخمة عبر أنواع مختلفة من الأجهزة، حتى لو كانت تلك الأجهزة لها سرعات واتصالات متفاوتة.

تحدي آخر هو إدارة مجموعة متنوعة من أجهزة GPU، بما في ذلك بطاقات الرسوميات ذات الذاكرة المحدودة المعتادة في الشبكات اللامركزية. تقنيات مثل التوازي النموذجي (تقسيم طبقات النموذج عبر الأجهزة) يمكن أن تساعد في جعل هذا ممكناً.

مستقبل التدريب اللامركزي

لا تزال طرق التدريب اللامركزية الحالية تقتصر على حجم النماذج بمقدار أقل من الحجم المتوقع (يُقال إن GPT-4 قريب من تريليون المعلمات، أكبر بمقدار 100 مرة من النموذج البالغ حجمه 10 مليارات من Prime Intellect). لتحقيق التوسع الحقيقي، سنحتاج إلى اختراقات في هندسة النموذج، وبنية الشبكة الأفضل، وتقسيم المهام الأذكى عبر الأجهزة.

ويمكننا أن نحلم بكبير. تخيل عالمًا حيث يجمع التدريب اللامركزي قوة حسابية أكبر من حتى أكبر مراكز البيانات المركزية يمكن أن تجتمع على الإطلاق.

بلوراليس ريسيرش(فريق قوي في التدريب اللامركزي ، واحد يجب مراقبته عن كثب) يجادل أن هذا ليس مجرد إمكانية - إنه لا مفر منه. مراكز بيانات مركزية مقيدة بقيود فيزيائية مثل المساحة وتوفر الطاقةبينما يمكن للشبكات غير المركزية الاستفادة من حوض موارد عالمي غير محدود بشكل فعال.

حتى أقر جنسن هوانغ من NVIDIA بأنالتدريب اللامركزي غير المتزامنيمكن أن تفتح القدرة الحقيقية لتوسيع الذكاء الاصطناعي. شبكات التدريب الموزعة أكثر تحملًا للأخطاء أيضًا.

في إحدى المستقبلات المحتملة، ستتم تدريب أقوى نماذج الذكاء الاصطناعي في العالم بطريقة لامركزية.

إنها فرصة مثيرة، لكنني لست مقتنعا بالكامل بعد. نحتاج إلى دليل أقوى يثبت أن التدريب اللامركزي لأكبر النماذج ممكن تقنيًا واقتصاديًا.

هنا حيث أرى وعدًا هائلاً: يمكن أن يكون النقطة الحلوة للتدريب اللامركزي في النماذج المفتوحة المصدر الصغيرة والمتخصصة المصممة لحالات الاستخدام المستهدفة، بدلاً من المنافسة مع النماذج الكبيرة جدًا والمدفوعة بالذكاء الاصطناعي العام الحدودي. بعض الهندسيات، خاصة النماذج غير المحولة، بالفعل تثبت ملاءمتها الطبيعية للإعدادات اللامركزية.

وهناك قطعة أخرى في هذا اللغز: الرموز. بمجرد أن يصبح التدريب اللامركزي عملياً على نطاق واسع، يمكن أن تلعب الرموز دوراً حاسماً في تحفيز المساهمين ومكافأتهم، مما يعزز هذه الشبكات بشكل فعال.

طريق الرؤية هذه طويلة، لكن التقدم مشجع بشكل كبير. تطور التدريب اللامركزي سيعود بالفائدة على الجميع - حتى شركات التكنولوجيا الكبيرة ومختبرات بحوث الذكاء الاصطناعي الرفيعة المستوى - حيث ستتجاوز مقياس نماذج المستقبل طاقة مركز بيانات واحد.

المستقبل موزع. وعندما تحمل التكنولوجيا مثل هذا الإمكانات الواسعة، يظهر التاريخ دائمًا أنها تتحسن بشكل أسرع مما يتوقعه الجميع.

1.3. الإستدلال اللامركزي

في الوقت الحالي ، يتم توجيه غالبية قوة الحوسبة في مجال الذكاء الاصطناعي لتدريب النماذج الضخمة. أفضل المختبرات في مجال الذكاء الاصطناعي في سباق محموم لتطوير أفضل النماذج الأساسية وتحقيق AGI في النهاية.

ولكن هذا هو تصوري: ستتحول هذه التركيز الحاسوبي الشديد على التدريب نحو الاستدلال في السنوات القادمة. مع تزايد تضمين الذكاء الاصطناعي في التطبيقات التي نستخدمها يومياً - من الرعاية الصحية إلى الترفيه - فإن الموارد الحسابية التي تحتاج إليها لدعم الاستدلال ستكون هائلة.

وليس فقط تكهنًا. تكبير مقياس الحوسبة في وقت الاستدلال هو أحدث كلمة متداولة في مجال الذكاء الاصطناعي. أصدرت OpenAI مؤخرًا نسخة معاينة / صغيرة من طرازها الأحدث، o1 (الاسم الرمزي: Strawberry) والتحول الكبير؟ يأخذ وقته للتفكير أولاً من خلال سؤال نفسه ما هي الخطوات التي يجب أن يتخذها للإجابة على السؤال، ثم يمر بكل من تلك الخطوات.

تم تصميم هذا النموذج للمهام الأكثر تعقيدًا والتي تتطلب التخطيط الشديد، مثل حل الألغاز المتقاطعة— ويواجه المشاكل التي تتطلب تفكيرًا أعمق. ستلاحظ أنها أبطأ، مستغرقة وقتًا أطول لتوليد الردود، ولكن النتائج أكثر تفكيرًا وتعقيدًا. كما أنها أكثر تكلفة للتشغيل (25 مرة تكلفة GPT-4)

التحول في التركيز واضح: النقلة التالية في أداء الذكاء الاصطناعي لن تأتي فقط من تدريب نماذج أكبر ولكن أيضًا من زيادة استخدام الحسابات أثناء الاستدلال.

إذا كنت ترغب في قراءة المزيد، فهناك العديد من الأبحاثأوراقتوضيح:

  • تؤدي توسيع الحوسبة المستنتجة من خلال العينات المتكررة إلى تحسينات كبيرة عبر مختلف المهام.
  • هناك قانون تسلسلي متسارع للاستنتاج أيضًا.

بمجرد تدريب النماذج القوية، يمكن نقل مهام الاستدلال الخاصة بها - حيث تقوم النماذج بأداء المهام - إلى شبكات الحوسبة اللامركزية. هذا يبدو منطقيًا للغاية لأن:

  • الاستدلال يستهلك موارد أقل بكثير من التدريب. بمجرد التدريب، يمكن ضغط النماذج وتحسينها باستخدام تقنيات مثل التكامل، القص والتقطير. يمكن حتى تقسيمها باستخدام التوازي التدفقي أو الأنابيب لتشغيلها على أجهزة المستهلك اليومية. لا تحتاج إلى بطاقة رسومات GPU عالية الأداء لتشغيل الاستدلال.
  • إنها تحدث بالفعل.إكسو لابزاكتشفت كيفية تشغيل نموذج Llama3 بمعلمة 450B على أجهزة الأجهزة الاستهلاكية مثل أجهزة MacBooks و Mac Minis. يمكن التعامل مع الاستدلال الموزع عبر العديد من الأجهزة حتى يتم التعامل مع أعباء العمل بكفاءة وبتكلفة منخفضة.
  • تجربة مستخدم أفضل. تشغيل الحسابات بالقرب من المستخدم يقلل من التأخير، وهو أمر حاسم لتطبيقات الوقت الحقيقي مثل الألعاب والواقع المعزز أو السيارات القيادة الذاتية. كل ميلي ثانية يهم.

فكر في التحقق المتمركز كخدمة تسليم المحتوى (CDN) للذكاء الاصطناعي: بدلاً من توصيل المواقع بسرعة عن طريق الاتصال بالخوادم القريبة ، يستخدم التحقق المتمركز قوة الحوسبة المحلية لتوصيل إجابات الذكاء الاصطناعي في وقت قياسي. من خلال تبني التحقق المتمركز ، تصبح تطبيقات الذكاء الاصطناعي أكثر كفاءة واستجابة وموثوقية.

الاتجاه واضح. رقاقة M4 Pro الجديدة من Appleتنافس NVIDIARTX 3070 Ti - بطاقة رسومات كانت في السابق حكرًا على اللاعبين المحترفين. الأجهزة التي لدينا بالفعل قادرة بشكل متزايد على التعامل مع أعباء العمل الذكاء الاصطناعي المتقدمة.

مجال العملات الرقمية القيمة المضافة

لنجاح شبكات الاستنتاج اللامركزية، يجب أن تكون هناك حوافز اقتصادية مقنعة للمشاركة. يجب تعويض العقد في الشبكة عن مساهماتهم في الحوسبة. يجب أن يضمن النظام توزيعًا عادلًا وفعالًا للمكافآت. التنوع الجغرافي أمر أساسي لتقليل التأخير في مهام الاستنتاج وتحسين تحمل الأخطاء.

وما هو أفضل طريقة لبناء شبكات متمركزة؟ مجال العملات الرقمية.

الرموز توفر آلية قوية لتوحيد مصالح المشاركين، مما يضمن أن الجميع يعملون نحو نفس الهدف: توسيع الشبكة وزيادة قيمة الرمز.

الرموز تقوم أيضًا بتعزيز نمو الشبكة بشكل كبير. إنها تساعد في حل مشكلة الدجاجة والبيضة الكلاسيكية التي تعطل معظم الشبكات من خلال مكافأة المتبنين المبكرين وتعزيز المشاركة من اليوم الأول.

نجاح بيتكوين وإيثيريوم يثبت هذه النقطة - لقد جمعوا بالفعل أكبر حمامات للطاقة الحسابية على وجه الكوكب.

شبكات الاستدلال اللامركزية هي التالية في الطابور. مع التنوع الجغرافي، يقللون من التأخير، ويحسنون تحمل الأخطاء، ويقربون الذكاء الاصطناعي من المستخدم. ومع حوافز العملات الرقمية، ستتوسع بشكل أسرع وأفضل مما يمكن أن تفعله الشبكات التقليدية على الإطلاق.

تنصل المسؤولية:

  1. يتم إعادة طبع هذه المقالة من gate[[](https://www.chainofthought.xyz/p/our-crypto-ai-thesis-part-ii-decentralised-compute)[سلسلة من الأفكار](https://www.chainofthought.xyz/)\]. جميع حقوق الطبع والنشر تنتمي إلى الكاتب الأصلي [تنغ يان]. إذا كانت هناك اعتراضات على هذه الإعادة الطبع، يرجى الاتصال بـبوابة تعلمالفريق، وسوف يتولونه على الفور.
  2. إخلاء المسؤولية عن المسؤولية: الآراء والآراء المعبر عنها في هذه المقالة هي فقط تلك للكاتب ولا تشكل أي نصيحة استثمارية.
  3. يتم تنفيذ ترجمات المقالة إلى لغات أخرى بواسطة فريق Gate Learn. ما لم يتم ذكره، فإنه يُمنع نسخ أو توزيع أو سرقة المقالات المترجمة.
ابدأ التداول الآن
اشترك وتداول لتحصل على جوائز ذهبية بقيمة
100 دولار أمريكي
و
5500 دولارًا أمريكيًا
لتجربة الإدارة المالية الذهبية!