انفجار في فبراير! تجاوز حجم استدعاء الذكاء الاصطناعي في الصين الولايات المتحدة لأول مرة، وتتصدر أربعة نماذج كبيرة قائمة أفضل خمسة نماذج على مستوى العالم، وطلب الحوسبة المحلية يشهد نموًا أسيًا

في فبراير، شهد حجم استدعاء نماذج الذكاء الاصطناعي في الصين نموًا هائلًا، متجاوزًا لأول مرة الولايات المتحدة.

وفقًا لمنصة OpenRouter، أكبر منصة تجميع لواجهات برمجة التطبيقات لنماذج الذكاء الاصطناعي على مستوى العالم، خلال الفترة من 9 إلى 15 فبراير، بلغ حجم استدعاء نماذج الصين 4.12 تريليون توكن، متفوقة لأول مرة على حجم استدعاء نماذج الولايات المتحدة الذي بلغ 2.94 تريليون توكن في نفس الفترة.

وفي الأسبوع من 16 إلى 22 فبراير، ارتفع حجم استدعاء نماذج الصين إلى 5.16 تريليون توكن، بزيادة قدرها 127% خلال ثلاثة أسابيع، بينما انخفض حجم استدعاء نماذج الولايات المتحدة إلى 2.7 تريليون توكن. وفي الوقت نفسه، احتلت نماذج الصين أربعة من بين الخمسة الأوائل في تصنيف استدعاء النماذج عالميًا، وهذه القوة في النمو لا تعتمد على منتج واحد ناجح، بل على ظهور جماعي لمطوري الذكاء الاصطناعي في الصين.

التوكن هو الوحدة الأصغر لمعالجة النصوص في نماذج الذكاء الاصطناعي. مقارنة بعدد المستخدمين، فإن حجم استدعاء التوكن هو مؤشر أكثر دقة يعكس قوة استخدام النموذج، وولاء المستخدمين، والقيمة التجارية.

شركة مطوري نماذج الذكاء الاصطناعي في الصين، تسيطر على السوق العالمية من خلال التكرار السريع وتكاليف منخفضة، مع تزايد الطلب على الحوسبة المحلية بشكل غير مسبوق.

تغيرات في الترتيب: الصين تتفوق على أمريكا في استدعاء التوكن، وأربعة نماذج عملاقة تتصدر المشهد

منصة OpenRouter تجمع مئات النماذج اللغوية الكبيرة، وتضم أكثر من 5 ملايين مطور، وتعد أكبر منصة تجميع لواجهات برمجة التطبيقات لنماذج الذكاء الاصطناعي على مستوى العالم. لذلك، يُعتبر بيانات استدعاء API الخاصة بها مرآة حقيقية لاتجاهات تطبيقات الذكاء الاصطناعي على مستوى العالم، لأنها تعكس مباشرة اختيارات المطورين، ومدى شعبية النماذج في التطبيقات العملية، وتنافسيتها.

ومن الجدير بالذكر أن غالبية مستخدمي هذه المنصة من المطورين الأجانب، حيث يشكل الأمريكيون حوالي 47.17%، بينما يمثل المطورون الصينيون فقط 6.01%. هذا يجعل البيانات أكثر موضوعية في عكس جاذبية نماذج الذكاء الاصطناعي الصينية على الصعيد العالمي.

تحليل صحفي من “الاقتصادية اليومية” استنادًا إلى بيانات OpenRouter كشف أن حجم استدعاء نماذج الذكاء الاصطناعي العالمية شهد نموًا هائلًا خلال العام الماضي. ففي الأسبوع من 3 إلى 9 مارس 2025، كان حجم استدعاء أكبر عشرة نماذج على المنصة 1.24 تريليون توكن فقط. ولكن بحلول منتصف فبراير 2026، ارتفع هذا الرقم إلى 13.95 تريليون توكن، أي أكثر من عشرة أضعاف خلال أقل من سنة.

في عام 2025، كانت النماذج الأمريكية هي القوة الدافعة للنمو، حيث استحوذت على حوالي 70% من حجم استدعاء النماذج العشرة الأوائل أسبوعيًا، بينما كانت النماذج الصينية أقل من 20%. ومع ذلك، في عام 2026، بدأ النمو في النماذج الأمريكية يتباطأ، بينما دخلت النماذج الصينية في مرحلة “الانطلاق السريع”.

وفي الأسبوع الأول من فبراير 2026 (2-8 فبراير)، بلغ حجم استدعاء النماذج الصينية 2.27 تريليون توكن، مما أرسل إشارة قوية للمنافسة.

وفي الأسبوع التالي، من 9 إلى 15 فبراير، تجاوزت نماذج الصين بشكل رسمي نظيرتها الأمريكية، حيث بلغ حجم استدعائها 4.12 تريليون توكن مقابل 2.94 تريليون توكن لنظيرتها الأمريكية، محققة إنجازًا تاريخيًا.

ولم يتوقف هذا الزخم، ففي الأسبوع من 16 إلى 22 فبراير، وصل حجم استدعاء نماذج الصين إلى 5.16 تريليون توكن، بزيادة 127% خلال ثلاثة أسابيع، مما عزز موقعها التنافسي.

هذه القوة في النمو لا تعتمد على منتج واحد، بل على ظهور جماعي لمطوري الذكاء الاصطناعي في الصين.

وفي الأسبوع من 16 إلى 22 فبراير 2026، أظهرت قائمة الترتيب أن أربعة من النماذج الخمسة الأولى تأتي من شركات صينية، وهي: موديل M2.5 من MiniMax، وKimi K2.5 من Moon Shadow، وGLM-5 من Zhipu، وV3.2 من DeepSeek. وبلغت مساهمة هذه النماذج مجتمعة 85.7% من إجمالي استدعاء النماذج في أعلى خمسة.

على سبيل المثال، أطلق MiniMax موديله M2.5 في 13 فبراير 2026، وحقق المركز الأول في قائمة الاستدعاء خلال أقل من أسبوع. وخلال الأسبوع من 9 إلى 15 فبراير، ساهمت M2.5 وحدها بـ 1.44 تريليون توكن من إجمالي 3.21 تريليون توكن تم استدعاؤها على المنصة، وهو رقم مذهل.

أما موديل Kimi K2.5 من Moon Shadow، الذي أُطلق في 27 يناير، فحقق قفزات متتالية في حجم الاستدعاء بفضل بنيته متعددة الوسائط وقدرته على معالجة الوكيل بشكل متوازي، حيث يمكنه إدارة حتى 100 “نسخة من الوكيل” في آن واحد، مما زاد من كفاءته بشكل كبير. ووفقًا للتقارير، فإن الإيرادات التراكمية من Kimi خلال أقل من شهر تجاوزت إيرادات عام 2025 بأكمله، مدفوعة بزيادة المستخدمين المدفوعين واستدعاءات API.

أما النموذج الرائد GLM-5 من Zhipu، الذي أُطلق بعد 12 فبراير، فشهد نموًا سريعًا في حجم الاستدعاء، حيث وصل إلى 0.8 تريليون توكن في الأسبوع التالي للإطلاق، بفضل نافذته الطويلة جدًا (200 ألف كلمة) وتحسينات طويلة المدى في معالجة المهام.

على مدى العام الماضي، على الرغم من أن شركة Alibaba Qianwen لم تظهر بشكل متكرر في قوائم النماذج، إلا أن تقريرًا مشتركًا من a16z وOpenRouter أظهر أن إجمالي استدعاء نماذجها بلغ 5.59 تريليون توكن، محتلة المركز الثاني عالميًا بعد DeepSeek الذي بلغ 14.37 تريليون توكن.

وتشير تقارير شركة Frost & Sullivan إلى أن سوق النماذج الكبيرة في الصين، خاصة في النصف الثاني من 2025، شهدت سيطرة سلسلة Qwen على 32.1% من استدعاء التوكن اليومي، تقريبًا مضاعفًا النسبة في النصف الأول من العام، ومتقدمة على ByteDance وDeepSeek.

وفيما يتعلق بمشهد نماذج الذكاء الاصطناعي في الصين، اقترح أستاذ المالية بجامعة شانغهاي للأعمال،胡延平، مفهوم “الفريق الصيني للذكاء الاصطناعي”.

ويعتقد أن التركيز على التركز السوقي ليس دائمًا هو الأفضل، وأن وجود عدة شركات رائدة يشكل تجمعًا تقنيًا صناعيًا واسعًا، وهو أمر مفيد للابتكار التنافسي، وتطوير المواهب، ويعزز من ميزة الجماعة في المنافسة بين الصين والولايات المتحدة.

كما لاحظ شريك في شركة الاستثمار المخاطرية Andreessen Horowitz (a16z)، أن 80% من النماذج الأساسية التي تستخدمها الشركات الناشئة في وادي السيليكون للحصول على تمويل تعتمد على نماذج مفتوحة المصدر من الصين.

القدرة التنافسية: لماذا تكلف التوكنات الصينية أقل من الأمريكية؟

السبب الرئيسي وراء قدرة النماذج الصينية على اجتذاب المطورين عالميًا بسرعة هو أنها لا تتفوق فقط في الأداء، بل تتمتع أيضًا بتكاليف منخفضة جدًا، وهو ميزة لا جدال فيها.

على سبيل المثال، وفقًا لأسعار منصة OpenRouter، فإن تكلفة نماذج MiniMax M2.5 وZhipu GLM-5 لمعالجة الإدخال هي 0.3 دولار لكل مليون توكن، بينما سعر النموذج الأمريكي Claude Opus4.6 يصل إلى 5 دولارات لكل مليون توكن، أي حوالي 16.7 مرة أعلى.

أما في مرحلة إنتاج المحتوى (الإخراج)، فإن الفارق في التكاليف أكبر، حيث تبلغ تكلفة MiniMax M2.5 حوالي 1.1 دولار لكل مليون توكن، وZhipu GLM-5 حوالي 2.55 دولار، بينما سعر Claude Opus4.6 يقفز إلى 25 دولارًا، وهو حوالي 22.7 و9.8 مرة على التوالي.

هذه الفروقات الكبيرة في التكاليف تؤثر مباشرة على قرارات المطورين عند اختيار واجهات برمجة التطبيقات.

ويعود هذا الفرق الكبير في التكاليف إلى الابتكارات في بنية الخوارزميات.

وفي حديثه مع “الاقتصادية اليومية”، أوضح لي تشينغ لي، مدير شركة Frost & Sullivan في الصين، أن استخدام بنية “الخبراء المختلطين (MoE)” هو أحد الأسباب الرئيسية التي تمكن النماذج الصينية من تقليل تكاليف الاستدلال بشكل كبير. فحتى النماذج المدرجة في التصنيف، مثل DeepSeek وAlibaba’s Tongyi Qianwen 3.5-Plus، تعتمد على بنية MoE بشكل واسع.

وتتمثل فائدة بنية MoE في أنها تقسم نموذجًا ضخمًا إلى عدة “خبراء” أصغر، بالإضافة إلى شبكة تحكم (بوابة). رغم أن إجمالي عدد المعلمات قد يكون هائلًا (مليارات من المعلمات)، إلا أن شبكة التحكم تكتشف طبيعة المهمة وتقوم بتنشيط جزء صغير من الخبراء ذات الصلة فقط، مما يقلل بشكل كبير من استهلاك الموارد الحسابية.

هذه “التنشيط حسب الحاجة” بدلاً من “التفعيل الكامل” يقلل من استهلاك الذاكرة وسرعة المعالجة، حيث يمكن أن تقلل من استهلاك الذاكرة بنسبة تصل إلى 60%، وتزيد من معدل المعالجة (عدد التوكنات المعالجة في وحدة الزمن) حتى 19 مرة، وهو ما يفسر ميزة التوفير في التكاليف.

بالإضافة إلى الابتكار في البنية، يسعى مطورو الذكاء الاصطناعي في الصين أيضًا إلى “الدمج الرأسي” لتقليل تكاليف كل توكن، من خلال تصميم متكامل يربط بين النموذج، والبنية التحتية السحابية، ورقائق الذكاء الاصطناعي، بهدف حل مشكلات التوافق بين البرمجيات والأجهزة، واستغلال كل وحدة حسابية بأقصى قدر ممكن.

ويُوضح لي تشينغ لي أن نظام “Tongyi-Cloud-Chip” من Alibaba هو مثال على هذا النهج، حيث يتيح التخصيص الأمثل للموارد، ويقلل بشكل كبير من تكاليف البنية التحتية، مما يساهم في خفض تكلفة إنتاج التوكن.

وتتوقع شركة JPMorgan أن ينمو استهلاك التوكن في السوق الصينية بمعدل سنوي مركب قدره 330% بين 2025 و2030، ليصل إلى 370 ضعفًا خلال خمس سنوات.

تحول في القيمة: التوكن يتحول من “المرور” على الإنترنت إلى “وقود” في عصر الذكاء الاصطناعي

الارتفاع الهائل في استهلاك التوكن يعكس، من ناحية، زيادة عدد المستخدمين ومدة الاستخدام، لكنه من ناحية أعمق، يعبر عن تحول جذري في نمط استخدام الذكاء الاصطناعي. إذ يتحول الذكاء الاصطناعي من أداة بسيطة للمعلومات والدردشة، إلى أداة إنتاجية تتفاعل بعمق في سير العمل، وتتعامل مع مهام معقدة.

وفي تقرير حديث، أطلقت شركة “مؤسسة التمويل الدولية” مفهوم “تضخم التوكن”، الذي لا يعني ارتفاع سعر التوكن، بل يشير إلى زيادة استهلاكه بشكل هيكلي لكل مستخدم وفي وحدة زمنية معينة. ويعزو التقرير ذلك إلى ثلاثة اتجاهات رئيسية:

أولًا، تتغير الاحتياجات الأساسية للمستخدمين من مجرد “الأسئلة والأجوبة” إلى “العمل العميق”، حيث يستخدمون الذكاء الاصطناعي لإعادة كتابة الشفرات، وتعديل الملفات، وإنشاء المستندات، وإجراء الاختبارات، وكلها تتطلب استهلاكًا كبيرًا للتوكن.

ثانيًا، يساهم ظهور وتوسع تقنية الوكيل (Agent) في زيادة استهلاك التوكن، حيث يخطط الوكيل، ويبحث، وينفذ، ويتأمل، ويستدعي النموذج مرات متعددة، مما يرفع استهلاك التوكن بشكل تدريجي.

ثالثًا، يزداد عبء الاستدلال، مع الحاجة إلى عمليات تفكير أعمق وسلاسل استنتاج أطول، مما يزيد من استهلاك التوكن في المخرجات والعمليات الوسيطة. ومع ذلك، فإن هذا يؤدي غالبًا إلى زيادة معدل النجاح وتقليل الأخطاء، حيث يختار المستخدمون استثمار المزيد من التوكنات لتحقيق كفاءة أعلى.

هذه التحولات تعني أن التوكن لم يعد مجرد “مرور” على الإنترنت بتكلفة منخفضة، بل أصبح “وقودًا” ضروريًا لتنفيذ المهام الإنتاجية.

ويتوافق هذا مع تقييمات كبار مصنعي الرقائق عالميًا، حيث أكد الرئيس التنفيذي لشركة NVIDIA، Jensen Huang، في مؤتمر الأرباح في 26 فبراير أن “الحوسبة تعني الإيرادات” و"الاستدلال هو الإيرادات". وأوضح أن بدون قدرة حسابية، لا يمكن توليد التوكن، وبدون التوكن، لا يمكن تحقيق النمو في الإيرادات. في عصر الذكاء الاصطناعي، فإن أداء الاستدلال يحدد مباشرة قدرة العملاء على تحقيق الإيرادات، حيث أن الاستدلال الفعال هو الذي ينتج التوكنات القابلة للتسويق. ومع تزايد ضغوط استهلاك الطاقة في مراكز البيانات العالمية، أصبح “الأداء لكل واط” مقياسًا رئيسيًا لكفاءة خدمات الذكاء الاصطناعي وإيراداتها.

وأفاد لي تشينغ لي أن نماذج الأعمال التجارية في خدمات الذكاء الاصطناعي تتطور من مجرد “الاحتساب حسب الاستخدام” إلى نموذج مختلط يجمع بين “الوقود والنتائج”. فأسعار التوكن، كوقود، ستنخفض مع التقدم التكنولوجي وتوسيع الحجم، بينما مع تحول الذكاء الاصطناعي إلى أداة إنتاجية، ستصبح الشركات أكثر استعدادًا لدفع مقابل النتائج المباشرة، مما يفتح المجال لنماذج اشتراك أكثر انتشارًا.

ويتوقع لي أن تتجه أسعار خدمات الذكاء الاصطناعي مستقبلًا نحو التخصيص والمرونة العالية، حيث أن تعقيد المهام يختلف بشكل كبير، ولن يكون نموذج التسعير الأحادي قادرًا على تلبية جميع الاحتياجات. لذلك، ستُأخذ في الاعتبار عوامل مثل استهلاك الحوسبة، وتكرار الاستدعاء، وما إذا كانت المهمة تتطلب استنتاجات متعددة أو تخطيطًا، مما يؤدي إلى نظام تسعير متعدد الأبعاد وديناميكي ليصبح السائد.

(المصدر: الاقتصادية اليومية)

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.5Kعدد الحائزين:2
    0.20%
  • القيمة السوقية:$2.44Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.46Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.44Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • تثبيت