ردّ LeCun بجملة واحدة على صراع الذكاء الفائق: لا يوجد أي شخص يمكنه التحكم في الذكاء الاصطناعي

ChainNewsAbmedia

وفي الوقت الذي كانت فيه المجتمعات الخاصة بالذكاء الاصطناعي تغلي بسبب الجدل حول نماذج Anthropic Mythos من منظور السلامة، أدلى الحائز على جائزة تورينغ، كبير علماء الذكاء الاصطناعي في Meta، Yann LeCun، ببيان مقتضب على منصة X قائلاً: “لن تكون هناك أي جهة واحدة يَتَحمّل عنها أي شخص بعينه ‘المسؤولية’ عن الذكاء الفائق.” وقد حصدت هذه التغريدة 935 إعجاباً وأكثر من 100 ردّ، لتقدّم منظوراً حاكماً مختلفاً جذرياً وسط أجواء الذعر التي أثارتها Mythos.

فلسفة الحوكمة وراء جملة واحدة

يبدو بيان LeCun بسيطاً، لكنه في الواقع يشير مباشرةً إلى خطأ ذهني جوهري في مناقشات حوكمة الذكاء الاصطناعي: تبسيط مخاطر الذكاء الفائق إلى مسألة “من سيتحكم”. عندما يناقش الناس سلامة الذكاء الاصطناعي، تكون السردية الشائعة هي البحث عن “شخص مسؤول”—شركة، أو جهة حكومية، أو قائد تقني لــ"إدارة" اتجاه تطوير الذكاء الاصطناعي. ويرى LeCun أن هذا الافتراض نفسه خاطئ.

ويتوافق هذا الموقف مع فلسفته المفتوحة للذكاء الاصطناعي على نحوٍ متّسق: ينبغي أن تكون حوكمة الذكاء الاصطناعي لا مركزية ومنهجية وبمشاركة أطراف متعددة، لا أن تتمركز بيد أي كيان واحد.

التفكير العكسي في جدل Mythos

يُثير توقيت حديث LeCun فضولاً. في اليوم ذاته، وصف Matt Shumer نموذج Mythos لدى Anthropic بأنه “سلاح على الإنترنت”، بينما عبّر Ethan Mollick عن دهشته بـ “Oh no.” المنطق الكامن وراء هذه ردود الفعل هو: لا بد من إخضاع مثل هذا الذكاء الاصطناعي القوي للسيطرة الصارمة، ويفضل أن تُدار هذه السيطرة من خلال “حارس بوابة” مسؤول واحد.

لكن موقف LeCun يأتي عكس ذلك تماماً—فهو لا يرى أن كون “شركة واحدة تقرر عدم الإطلاق” هو ضمان للسلامة. وإذا كانت قلة من الشركات تمتلك ذكاءً اصطناعياً بمستوى ذكاء فائق، وكان قرار هذه الشركات المنفرد قادراً على تحديد مسار تطور الذكاء الاصطناعي عالمياً، فإن هذا بحد ذاته يُعدّ مخاطرة. فالتحكم المركزي لا يعني السلامة، بل قد يخلق اختلالاً جديداً في توازن القوى.

تحديات الحوكمة اللامركزية

يواجه موقف LeCun تحديات واقعية أيضاً. تبدو الحوكمة اللامركزية مثالية، لكن في ظل الواقع الذي يشهد فيه القدرات في مجال الذكاء الاصطناعي نمواً أُسيّاً، قد يعني “لا أحد مسؤول” “لا أحد يستطيع تحمّل المسؤولية”. عندما يستطيع نموذج ما العثور على ثغرة يوم-صفر، هل يظل الوصول المفتوح أفضل استراتيجية؟

وهذا هو لبّ التناقض في مناقشات حوكمة الذكاء الاصطناعي حالياً: خطر إساءة استخدام السلطة عندما تكون السيطرة مركزية، وخطر إساءة استخدام القدرة عندما تكون مفتوحة ولامركزية. لم تحل جملة LeCun هذا التناقض، لكنها تجبر الناس على إعادة تقييم ما إذا كان حلّ “تعيين شخص ليكون مسؤولاً”—رغم بساطته البديهية—فعلاً قابلاً للتطبيق.

دروس لمناقشات حوكمة الذكاء الاصطناعي

بين حالة الذعر التي أثارتها Mythos والتأمل الهادئ من LeCun، نرى الخلاف الجوهري بين مدرستين في حوكمة الذكاء الاصطناعي: المدرسة التي تركز على السلامة تدافع عن تقييد القدرات والتحكم المركزي، بينما تدافع المدرسة المفتوحة عن إتاحة واسعة ووضع حوكمة لا مركزية. لن تنتهي هذه المناظرة بنتيجة سهلة، لكن بالنسبة لصانعي القرار في تايوان المهتمين بسياسات الذكاء الاصطناعي، فإن فهم هذا التوتر بين الطرفين أمرٌ ضروري لوضع استراتيجية محلية للحوكمة في مجال الذكاء الاصطناعي.

ظهرت هذه المقالة التي يستجيب فيها LeCun لجدل الذكاء الفائق بجملة واحدة لأول مرة على ABMedia.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات