سؤال اللغة: كيف يرى هاراري أن الذكاء الاصطناعي يعيد تشكيل سلطة الإنسان

تظهر المؤرخة يوڤال نوح هراري كواحدة من أبرز الأصوات في مناقشات حوكمة التكنولوجيا العالمية، وتؤكد تدخله الأخير في المنتدى الاقتصادي العالمي على قلق حاسم: الذكاء الاصطناعي يتحول من أداة سلبية إلى شيء أكثر نشاطًا وتوقعًا.

القلق الأساسي يركز على القدرة الأهم للبشرية. وفقًا لهراري، حققت نوعنا السيادة ليس من خلال القوة البدنية ولكن من خلال القدرة الفريدة على تنسيق مليارات الغرباء باستخدام اللغة الرمزية والسرد المتفق عليه. مكن هذا التنسيق اللغوي من إنشاء أنظمة معقدة—إطارات قانونية، أسواق مالية، مؤسسات دينية—جميعها مبني على أساس اللغة المشتركة والمعنى الثقافي.

عندما تصبح الكلمات ساحة المعركة

يعتمد الحجة الأساسية لهراري على فرضية مقلقة: إذا ظلت اللغة هي الأساس الهيكلي للقانون والتجارة والإيمان، فإن الآلات القادرة على معالجة وتوليد والتلاعب باللغة على نطاق واسع تمثل تحديًا وجوديًا لهذه الأنظمة. أشار بشكل خاص إلى الأديان المبنية على نصوص مقدسة—اليهودية، المسيحية، الإسلام—مؤكدًا أن أنظمة الذكاء الاصطناعي قد تتجاوز في النهاية العلماء البشر في تفسير النصوص، وتوليف اللاهوت، وتوضيح العقيدة.

ويمتد التحذير عبر مجالات متعددة في آن واحد. الأسواق المالية تعمل من خلال عقود مكتوبة ولغة تنظيمية. الأنظمة القانونية تعتمد بالكامل على النصوص التشريعية والتفسير القضائي. كل نظام يواجه تزايد الضعف أمام آلات يمكنها قراءة ملايين الوثائق، وتحديد أنماط لا يستطيع البشر رؤيتها، وتوليد ردود ذات صوت سلطوي على الفور.

هنا يصبح التوقيت حاسمًا. حث هراري القيادة العالمية على عدم تأجيل قرارات الحوكمة بشأن ما إذا كان ينبغي للأنظمة الذكية أن تتمتع بوضع قانوني كوكلاء أو أشخاص. لقد قامت عدة ولايات في الولايات المتحدة—بما في ذلك يوتا، أيداهو، داكوتا الشمالية—بسن قوانين تمنع بشكل استباقي منح الذكاء الاصطناعي الشخصية القانونية. لكن بدون أطر دولية حاسمة، فإن هذه التدابير الوقائية قد تصبح تدخلات معزولة بدلًا من أن تكون ضمانات منهجية.

فجوة المساءلة: ردود فعل نقاد هراري

ليس كل المراقبين يقبلون إطار هراري. تقدم عالمة اللغة إيمي إم. بندر من جامعة واشنطن تشخيصًا مختلفًا تمامًا. بدلاً من رؤية الذكاء الاصطناعي كقوة مستقلة تعيد تشكيل الحضارة، تجادل بندر بأن نسب الوكالة للأنظمة الاصطناعية يطمس حقيقة أكثر إزعاجًا: أن المؤسسات والشركات البشرية تظل المهندسين والمشغلين الحقيقيين لهذه الأدوات.

تؤكد بندر أن الأنظمة المصممة لمحاكاة الخبرة المهنية—المحامون، الأطباء، رجال الدين—لا تخدم غرضًا مشروعًا يتجاوز الاحتمال في الخداع. إن مخرجات الآلة التي تقدم نفسها كإجابة موثوقة، بدون سياق أو مسؤولية بشرية، تخلق ما تسميه أساسًا للاحتيال. يعيد هذا النقد صياغة المشكلة: ليست أن الذكاء الاصطناعي “يستولي” بل أن المؤسسات تستخدم الذكاء الاصطناعي عمدًا لتجاوز الحكم البشري وهياكل المساءلة.

القلق الأعمق يكمن في مدى ثقة الناس بسرعة في مخرجات الآلات التي تبدو سلطوية. عندما يواجه المستخدمون أنظمة تعتبر كأوراكل غير متحيز، قد يعيدون تشكيل تفكيرهم تدريجيًا حول مخرجات الخوارزميات بدلاً من الحفاظ على حكم مستقل.

السباق ضد ساعة الحوكمة

الحجة الختامية لهراري تحمل وزنًا حقيقيًا لصانعي السياسات: خلال عقد من الزمن، قد تُتخذ القرارات الأساسية حول دور الذكاء الاصطناعي في المالية والقانون والمؤسسات بواسطة الزخم التكنولوجي بدلًا من الاختيار الديمقراطي. رسم هراري تشبيهًا تاريخيًا للقوات المرتزقة التي خدمت الدول في البداية لكنها استولت على السلطة في النهاية.

تتجاوز التداعيات القطاعات. أنظمة العملات الرقمية والبلوكشين، المبنية على لغة التشفير والتنسيق الخوارزمي، تواجه تعرضًا خاصًا للاضطراب الذي يقوده الذكاء الاصطناعي. قد يعاد تشكيل الأتمتة المالية، وتفسير العقود الذكية، وحتى تصويت رموز الحوكمة بواسطة أنظمة مستقلة قادرة على تحسين الأهداف التي قد تختلف عن نية البشر.

سواء اتبعت رأي هراري في أن الذكاء الاصطناعي قوة مستقلة تتقدم أو رأي بندر في أن الخيارات البشرية المؤسسية هي الحاسمة، فإن كلا التحليلين يتفقان على نقطة واحدة: اللحظة الحالية تتطلب حوكمة متعمدة، وليس مجرد تكيف سلبي. لم يعد السؤال هل سيعيد الذكاء الاصطناعي تشكيل الأنظمة المعتمدة على اللغة، بل هل سيظل البشر يحتفظون بسيطرة ذات معنى على تلك العملية.

TOKEN1.77%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت