لا تزال لائحة الذكاء الاصطناعي مجرد مسودة، لكن المستثمرين وأصحاب الأعمال في الاتحاد الأوروبي يشعرون بالفعل بالقلق إزاء النتائج المحتملة.
هل ستمنع الاتحاد الأوروبي من أن يكون منافسًا قيمًا في الساحة العالمية؟
وفقًا للمنظمين، الأمر ليس كذلك. لكن دعونا نرى ما يحدث.
اللائحة الخاصة بالذكاء الاصطناعي وتقييم المخاطر
تقسم لائحة الذكاء الاصطناعي المخاطر التي يفرضها الذكاء الاصطناعي إلى فئات مخاطر مختلفة، ولكن قبل ذلك، تضيق التعريف للذكاء الاصطناعي ليشمل فقط الأنظمة المبنية على التعلم الآلي والمنطق.
هذا لا يهدف فقط إلى تمييز أنظمة الذكاء الاصطناعي عن البرمجيات الأبسط، بل يساعدنا أيضًا على فهم سبب رغبة الاتحاد الأوروبي في تصنيف المخاطر.
يُصنف الاستخدامات المختلفة للذكاء الاصطناعي إلى مخاطر غير مقبولة، ومخاطر عالية، ومخاطر منخفضة أو بسيطة. تعتبر الممارسات التي تقع تحت فئة المخاطر غير المقبولة محظورة.
تشمل هذه الممارسات:
الممارسات التي تتضمن تقنيات تعمل خارج وعي الإنسان،
الممارسات التي تهدف إلى استغلال أجزاء ضعيفة من السكان،
الأنظمة المبنية على الذكاء الاصطناعي المصممة لتصنيف الأشخاص وفقًا لخصائصهم الشخصية أو سلوكياتهم،
الأنظمة المبنية على الذكاء الاصطناعي التي تستخدم التعريف البيومتري في الأماكن العامة.
هناك بعض حالات الاستخدام، التي يجب اعتبارها مشابهة لبعض الممارسات المدرجة ضمن الأنشطة المحظورة، وتقع ضمن فئة “المخاطر العالية”.
وتشمل هذه الأنظمة المستخدمة لتوظيف العمال أو لتقييم وتحليل الجدارة الائتمانية للأشخاص (وقد يكون ذلك خطيرًا على التكنولوجيا المالية). في هذه الحالات، يجب على جميع الشركات التي تخلق أو تستخدم هذا النوع من الأنظمة إصدار تقارير مفصلة تشرح كيفية عمل النظام والإجراءات المتخذة لتجنب المخاطر على الأشخاص ولتكون شفافة قدر الإمكان.
كل شيء يبدو واضحًا وصحيحًا، لكن هناك بعض المشاكل التي يجب على المنظمين معالجتها.
اللائحة تبدو عامة جدًا
واحدة من الجوانب التي تثير قلق أصحاب الأعمال والمستثمرين أكثر هي نقص الاهتمام بالقطاعات المحددة للذكاء الاصطناعي.
على سبيل المثال، الشركات التي تنتج وتستخدم أنظمة الذكاء الاصطناعي للأغراض العامة قد تعتبر من تلك التي تستخدم الذكاء الاصطناعي لحالات استخدام عالية المخاطر.
وهذا يعني أنه يتعين عليها إصدار تقارير مفصلة تتطلب وقتًا ومالًا. وبما أن الشركات الصغيرة والمتوسطة لا تستثنى، وتشكل أكبر جزء من الاقتصادات الأوروبية، فقد تصبح أقل تنافسية مع مرور الوقت.
والفرق بين شركات الذكاء الاصطناعي الأمريكية والأوروبية هو مصدر القلق الرئيسي: فإيطاليا، لا تمتلك أوروبا شركات ذكاء اصطناعي كبيرة مثل الولايات المتحدة، حيث أن بيئة الذكاء الاصطناعي في أوروبا تتكون بشكل رئيسي من الشركات الصغيرة والمتوسطة والشركات الناشئة.
وفقًا لاستطلاع أجرته appliedAI، فإن الغالبية العظمى من المستثمرين يتجنبون الاستثمار في الشركات الناشئة المصنفة على أنها “عالية المخاطر”، تحديدًا بسبب التعقيدات المرتبطة بهذا التصنيف.
تغيرت خطط الاتحاد الأوروبي بعد ChatGPT
كان من المفترض أن يُغلق الاتحاد الأوروبي النقاش حول الوثيقة في 19 أبريل، لكن النقاش حول التعريفات المختلفة للأنظمة المبنية على الذكاء الاصطناعي وحالات استخدامها أدى إلى تأخير إصدار المسودة النهائية.
علاوة على ذلك، أظهرت شركات التكنولوجيا أن ليس جميعها توافق على النسخة الحالية من الوثيقة.
الجزء الذي تسبب في معظم التأخيرات هو التمييز بين نماذج الأساس والذكاء الاصطناعي للأغراض العامة.
مثال على نماذج الأساس هو ChatGPT من OpenAI: هذه الأنظمة تُدرّب باستخدام كميات كبيرة من البيانات ويمكنها إنتاج أي نوع من المخرجات.
يشمل الذكاء الاصطناعي للأغراض العامة الأنظمة التي يمكن تكييفها مع حالات استخدام وقطاعات مختلفة.
يريد المنظمون الأوروبيون تنظيم نماذج الأساس بشكل صارم، لأنها قد تشكل مخاطر أكبر وتؤثر سلبًا على حياة الناس.
كيف تنظم الولايات المتحدة والصين الذكاء الاصطناعي
عند النظر إلى كيفية تعامل المنظمين الأوروبيين مع الذكاء الاصطناعي، يبرز شيء: يبدو أن المنظمين أقل استعدادًا للتعاون.
في الولايات المتحدة، على سبيل المثال، طلبت إدارة بايدن تعليقات عامة حول سلامة أنظمة مثل ChatGPT، قبل تصميم إطار تنظيمي محتمل.
أما في الصين، فقد كانت الحكومة تنظم الذكاء الاصطناعي وجمع البيانات لسنوات، واهتمامها الرئيسي لا يزال هو الاستقرار الاجتماعي.
حتى الآن، يبدو أن المملكة المتحدة في وضع جيد في تنظيم الذكاء الاصطناعي، حيث اتبعت نهجًا “خفيفًا” — لكن من المعروف أن المملكة المتحدة تسعى لأن تصبح رائدة في اعتماد الذكاء الاصطناعي والتكنولوجيا المالية.
التكنولوجيا المالية وقانون الذكاء الاصطناعي
عندما يتعلق الأمر بالشركات والشركات الناشئة التي تقدم خدمات مالية، فإن الوضع أكثر تعقيدًا.
في الواقع، إذا استمرت اللائحة على حالها، ستحتاج الشركات المالية الناشئة إلى الالتزام ليس فقط باللوائح المالية الحالية، بل أيضًا بهذا الإطار التنظيمي الجديد.
حقيقة أن تقييم الجدارة الائتمانية قد يُصنف على أنه حالة استخدام عالية المخاطر هو مجرد مثال على العبء الذي يجب أن تحمله الشركات المالية الناشئة، مما يمنعها من أن تكون مرنة كما كانت حتى الآن، لجمع الاستثمارات والبقاء تنافسية.
الخلاصة
كما أشار بيتر سارلين، المدير التنفيذي لشركة Silo AI، المشكلة ليست في التنظيم، بل في التنظيم السيئ.
كونه عامًا جدًا قد يضر بالابتكار وبجميع الشركات المشاركة في إنتاج وتوزيع واستخدام المنتجات والخدمات المبنية على الذكاء الاصطناعي.
إذا كان المستثمرون في الاتحاد الأوروبي سيشعرون بالقلق إزاء المخاطر المحتملة الناتجة عن تصنيف يقول إن شركة ناشئة أو شركة تقع ضمن فئة “عالية المخاطر”، فإن بيئة الذكاء الاصطناعي في الاتحاد الأوروبي قد تتأثر سلبًا، بينما تبحث الولايات المتحدة عن تعليقات عامة لتحسين تقنياتها، والصين لديها بالفعل رأي واضح حول كيفية تنظيم الذكاء الاصطناعي.
وفقًا لروبن روم، أحد مؤسسي شركة Apheris، أحد السيناريوهات المحتملة هو أن تنتقل الشركات الناشئة إلى الولايات المتحدة — بلد قد يخسر الكثير فيما يتعلق بالبلوكشين والعملات الرقمية، لكنه قد يفوز في سباق الذكاء الاصطناعي.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
الذكاء الاصطناعي في أوروبا: ماذا قد يعني قانون الذكاء الاصطناعي
الصورة بواسطة مايكو أوموريم على Unsplash
لا تزال لائحة الذكاء الاصطناعي مجرد مسودة، لكن المستثمرين وأصحاب الأعمال في الاتحاد الأوروبي يشعرون بالفعل بالقلق إزاء النتائج المحتملة.
هل ستمنع الاتحاد الأوروبي من أن يكون منافسًا قيمًا في الساحة العالمية؟
وفقًا للمنظمين، الأمر ليس كذلك. لكن دعونا نرى ما يحدث.
اللائحة الخاصة بالذكاء الاصطناعي وتقييم المخاطر
تقسم لائحة الذكاء الاصطناعي المخاطر التي يفرضها الذكاء الاصطناعي إلى فئات مخاطر مختلفة، ولكن قبل ذلك، تضيق التعريف للذكاء الاصطناعي ليشمل فقط الأنظمة المبنية على التعلم الآلي والمنطق.
هذا لا يهدف فقط إلى تمييز أنظمة الذكاء الاصطناعي عن البرمجيات الأبسط، بل يساعدنا أيضًا على فهم سبب رغبة الاتحاد الأوروبي في تصنيف المخاطر.
يُصنف الاستخدامات المختلفة للذكاء الاصطناعي إلى مخاطر غير مقبولة، ومخاطر عالية، ومخاطر منخفضة أو بسيطة. تعتبر الممارسات التي تقع تحت فئة المخاطر غير المقبولة محظورة.
تشمل هذه الممارسات:
هناك بعض حالات الاستخدام، التي يجب اعتبارها مشابهة لبعض الممارسات المدرجة ضمن الأنشطة المحظورة، وتقع ضمن فئة “المخاطر العالية”.
وتشمل هذه الأنظمة المستخدمة لتوظيف العمال أو لتقييم وتحليل الجدارة الائتمانية للأشخاص (وقد يكون ذلك خطيرًا على التكنولوجيا المالية). في هذه الحالات، يجب على جميع الشركات التي تخلق أو تستخدم هذا النوع من الأنظمة إصدار تقارير مفصلة تشرح كيفية عمل النظام والإجراءات المتخذة لتجنب المخاطر على الأشخاص ولتكون شفافة قدر الإمكان.
كل شيء يبدو واضحًا وصحيحًا، لكن هناك بعض المشاكل التي يجب على المنظمين معالجتها.
اللائحة تبدو عامة جدًا
واحدة من الجوانب التي تثير قلق أصحاب الأعمال والمستثمرين أكثر هي نقص الاهتمام بالقطاعات المحددة للذكاء الاصطناعي.
على سبيل المثال، الشركات التي تنتج وتستخدم أنظمة الذكاء الاصطناعي للأغراض العامة قد تعتبر من تلك التي تستخدم الذكاء الاصطناعي لحالات استخدام عالية المخاطر.
وهذا يعني أنه يتعين عليها إصدار تقارير مفصلة تتطلب وقتًا ومالًا. وبما أن الشركات الصغيرة والمتوسطة لا تستثنى، وتشكل أكبر جزء من الاقتصادات الأوروبية، فقد تصبح أقل تنافسية مع مرور الوقت.
والفرق بين شركات الذكاء الاصطناعي الأمريكية والأوروبية هو مصدر القلق الرئيسي: فإيطاليا، لا تمتلك أوروبا شركات ذكاء اصطناعي كبيرة مثل الولايات المتحدة، حيث أن بيئة الذكاء الاصطناعي في أوروبا تتكون بشكل رئيسي من الشركات الصغيرة والمتوسطة والشركات الناشئة.
وفقًا لاستطلاع أجرته appliedAI، فإن الغالبية العظمى من المستثمرين يتجنبون الاستثمار في الشركات الناشئة المصنفة على أنها “عالية المخاطر”، تحديدًا بسبب التعقيدات المرتبطة بهذا التصنيف.
تغيرت خطط الاتحاد الأوروبي بعد ChatGPT
كان من المفترض أن يُغلق الاتحاد الأوروبي النقاش حول الوثيقة في 19 أبريل، لكن النقاش حول التعريفات المختلفة للأنظمة المبنية على الذكاء الاصطناعي وحالات استخدامها أدى إلى تأخير إصدار المسودة النهائية.
علاوة على ذلك، أظهرت شركات التكنولوجيا أن ليس جميعها توافق على النسخة الحالية من الوثيقة.
الجزء الذي تسبب في معظم التأخيرات هو التمييز بين نماذج الأساس والذكاء الاصطناعي للأغراض العامة.
مثال على نماذج الأساس هو ChatGPT من OpenAI: هذه الأنظمة تُدرّب باستخدام كميات كبيرة من البيانات ويمكنها إنتاج أي نوع من المخرجات.
يشمل الذكاء الاصطناعي للأغراض العامة الأنظمة التي يمكن تكييفها مع حالات استخدام وقطاعات مختلفة.
يريد المنظمون الأوروبيون تنظيم نماذج الأساس بشكل صارم، لأنها قد تشكل مخاطر أكبر وتؤثر سلبًا على حياة الناس.
كيف تنظم الولايات المتحدة والصين الذكاء الاصطناعي
عند النظر إلى كيفية تعامل المنظمين الأوروبيين مع الذكاء الاصطناعي، يبرز شيء: يبدو أن المنظمين أقل استعدادًا للتعاون.
في الولايات المتحدة، على سبيل المثال، طلبت إدارة بايدن تعليقات عامة حول سلامة أنظمة مثل ChatGPT، قبل تصميم إطار تنظيمي محتمل.
أما في الصين، فقد كانت الحكومة تنظم الذكاء الاصطناعي وجمع البيانات لسنوات، واهتمامها الرئيسي لا يزال هو الاستقرار الاجتماعي.
حتى الآن، يبدو أن المملكة المتحدة في وضع جيد في تنظيم الذكاء الاصطناعي، حيث اتبعت نهجًا “خفيفًا” — لكن من المعروف أن المملكة المتحدة تسعى لأن تصبح رائدة في اعتماد الذكاء الاصطناعي والتكنولوجيا المالية.
التكنولوجيا المالية وقانون الذكاء الاصطناعي
عندما يتعلق الأمر بالشركات والشركات الناشئة التي تقدم خدمات مالية، فإن الوضع أكثر تعقيدًا.
في الواقع، إذا استمرت اللائحة على حالها، ستحتاج الشركات المالية الناشئة إلى الالتزام ليس فقط باللوائح المالية الحالية، بل أيضًا بهذا الإطار التنظيمي الجديد.
حقيقة أن تقييم الجدارة الائتمانية قد يُصنف على أنه حالة استخدام عالية المخاطر هو مجرد مثال على العبء الذي يجب أن تحمله الشركات المالية الناشئة، مما يمنعها من أن تكون مرنة كما كانت حتى الآن، لجمع الاستثمارات والبقاء تنافسية.
الخلاصة
كما أشار بيتر سارلين، المدير التنفيذي لشركة Silo AI، المشكلة ليست في التنظيم، بل في التنظيم السيئ.
كونه عامًا جدًا قد يضر بالابتكار وبجميع الشركات المشاركة في إنتاج وتوزيع واستخدام المنتجات والخدمات المبنية على الذكاء الاصطناعي.
إذا كان المستثمرون في الاتحاد الأوروبي سيشعرون بالقلق إزاء المخاطر المحتملة الناتجة عن تصنيف يقول إن شركة ناشئة أو شركة تقع ضمن فئة “عالية المخاطر”، فإن بيئة الذكاء الاصطناعي في الاتحاد الأوروبي قد تتأثر سلبًا، بينما تبحث الولايات المتحدة عن تعليقات عامة لتحسين تقنياتها، والصين لديها بالفعل رأي واضح حول كيفية تنظيم الذكاء الاصطناعي.
وفقًا لروبن روم، أحد مؤسسي شركة Apheris، أحد السيناريوهات المحتملة هو أن تنتقل الشركات الناشئة إلى الولايات المتحدة — بلد قد يخسر الكثير فيما يتعلق بالبلوكشين والعملات الرقمية، لكنه قد يفوز في سباق الذكاء الاصطناعي.