تستمر العقوبات في التراكم — يعتمد محامون أمريكيون الذكاء الاصطناعي بسرعة أكبر من أي وقت مضى على الرغم من تصاعد العقوبات القضائية بسبب تقديم مذكرات قانونية مزيفة مولّدة عبر هلوسات الذكاء الاصطناعي

Cryptonews

المحامون الأمريكيون يرفعون الآن مرافعات مُولّدة بواسطة الذكاء الاصطناعي مع استشهادات مرجعية منتحلة بوتيرة متسارعة، وتُسجّل عقوبات المحاكم ضدهم أرقامًا قياسية جديدة، كما يتغلغل هذا التوجّه بعمق في البرمجيات القانونية لدرجة يقول فيها خبراء إن قواعد الإفصاح الإلزامي قد تكون بالفعل أصبحت عفا عنها الزمن.
الملخص

  • شهد العام الماضي ارتفاعًا سريعًا في العقوبات القضائية ضد محامين بسبب مرافعات مولّدة بالذكاء الاصطناعي تضمنت استشهادات مرجعية منتحلة، وما زال المعدل يتصاعد — إذ سجّل باحث يتابع هذا الاتجاه 10 حالات من 10 محاكم مختلفة في يوم واحد.
  • قد تكون محكمة فيدرالية قد وضعت سجلًا جديدًا الشهر الماضي بأمرها لمحامٍ مقيم في أوريغون بدفع 109,700 دولار كعقوبات عن تقديم أخطاء مولّدة بالذكاء الاصطناعي، بينما عقدت المحكمتان العليا في نبراسكا وجورجيا جلسات استماع علنية بشأن استشهادات قضايا منسوبة للهلوسة.
  • تم رفع دعوى قضائية ضد OpenAI في مارس من شركة Nippon Life Insurance Company of America، التي زعمت أن امرأة كانت تستخدم ChatGPT كمستشار قانوني، ما أدى إلى رفع دعاوى قضائية تافهة — وهو اتهام وصفته OpenAI بأنه لا أساس له.

المحامون الأمريكيون يرفعون الآن مرافعات مُولّدة بواسطة الذكاء الاصطناعي مع استشهادات مرجعية منتحلة بوتيرة متسارعة، وتُسجّل عقوبات المحاكم ضدهم أرقامًا قياسية جديدة، كما يتغلغل هذا التوجّه بعمق في البرمجيات القانونية لدرجة يقول فيها خبراء إن قواعد الإفصاح الإلزامي قد تكون بالفعل أصبحت عفا عنها الزمن. ووفقًا لتقرير NPR الصادر في 3 أبريل، شهد حجم عقوبات المحاكم عن الأخطاء المولّدة بالذكاء الاصطناعي ارتفاعًا عبر عام 2025 ولم يتباطأ في 2026 — وهو نمط يترتب عليه عواقب مباشرة لأي قطاع، بما في ذلك العملات المشفرة، إذ يعتمد مقدار تعرضه القانوني على جودة المرافعات المقدَّمة في دفاعه.

الأرقام تواصل الارتفاع

داميان شارلوتان، باحث في HEC Paris يتولى الحفاظ على إحصاء عالمي لعقوبات المحاكم عن الأخطاء القانونية المولّدة بالذكاء الاصطناعي، قال لـ NPR إن الوتيرة لم تصل إلى مرحلة الثبات. “في الآونة الأخيرة كانت لدينا 10 حالات من 10 محاكم مختلفة في يوم واحد”، قال. “لدينا هذه المشكلة لأن الذكاء الاصطناعي شديد الجاهزية — لكنه ليس كاملًا.” وكانت أبرز قضية في الدورة السابقة هي قضية محامي المدير التنفيذي لشركة MyPillow، مايك لينديل، الذين تم تغريمهم 3,000 دولار لكل واحد منهم لرفع مرافعات تحتوي على استشهادات مرجعية منتحلة.

قد تكون محكمة فيدرالية قد سجّلت رقمًا قياسيًا جديدًا الشهر الماضي عندما صدر أمر قضائي يقضي بأن يدفع محامٍ مقيم في أوريغون مبلغ 109,700 دولار كعقوبات وتكاليف. وقد جرى أيضًا استدعاء المحاكم العليا على مستوى الولايات: إذ فتّشت المحكمة العليا في نبراسكا محاميًا من أوماها في فبراير بشأن استشهادات منتحلة وأحالته إلى التأديب، وانكشف مشهد مماثل بشكل علني في Georgia Supreme Court في مارس. “أنا متفاجئ من أن الناس ما زالوا يفعلون ذلك رغم أنه كان مطروحًا في الأخبار”، قالت كارلا وال، النائبة المشاركة للعميد لشؤون المعلومات والتكنولوجيا في كلية الحقوق بجامعة واشنطن.

لماذا لن تنجح قواعد الإفصاح

استجابت بعض المحاكم من خلال مطالبة المحامين بوضع ملصق على أي محتوى مدعوم بالذكاء الاصطناعي في مرافعاتهم. قال جو باتريس، كبير محرري Above the Law وصحفي سابق محامٍ، لـ NPR إن من المحتمل أن تصبح هذه القواعد غير قابلة للتطبيق تقريبًا على الفور. “سيصبح الأمر متداخلًا جدًا في كيفية تشغيل كل شيء، لدرجة أنه لكي تلتزم بالقاعدة بجدية، سيتعين أن تضع على كل ما تخرجه، ‘مرحبًا، هذا مدعوم بالذكاء الاصطناعي’، وعندها يصبح في نوع من السعي غير ذي جدوى”، قال. كما أن اقتصاديات الفوترة القانونية تتسارع أيضًا في تبني هذه التكنولوجيا بدلًا من أن تتباطأ. وبما أن أدوات الذكاء الاصطناعي تُقلّل وقت إعداد المسودات، تواجه شركات المحاماة ضغوطًا للعثور على نماذج فوترة جديدة — ويشير باتريس إلى أن ضغط الوقت الناتج يجعل المحامين أكثر ميلاً لقبول المسودات الأولى للذكاء الاصطناعي دون تحقق كافٍ.

إن التحول الذي أجرته وزارة العدل نفسها بعيدًا عن مقاضاة مطوري العملات المشفرة يتأسس جزئيًا على الحجة القائلة إن الشيفرة محايدة ما لم تكن هناك نية إجرامية — وهو تمييز يتطلب بالضبط نوع التفكير القانوني الدقيق الذي تفشل المرافعات المُسارَعة المدعومة بالذكاء الاصطناعي باستمرار في استعادته. فقد رفضت محكمة فيدرالية في تكساس مؤخرًا دعوى تتعلق بمسؤولية برمجية تخص العملات المشفرة جزئيًا، وذلك بالاستناد إلى مذكرة من DOJ بشأن معايير مقاضاة المطورين، وهو ما يوضح كيف أن جودة التفكير القانوني في القضايا القريبة من نطاق الذكاء الاصطناعي تُشكّل مباشرة النتائج التنظيمية للقطاع بأكمله.

دعوى OpenAI

دخل الذكاء الاصطناعي نفسه الآن إلى دائرة الاستهداف القضائي خارج مشكلة الخطأ داخل قاعة المحكمة. في مارس، تم رفع دعوى قضائية في محكمة فيدرالية بولاية Illinois ضد OpenAI من شركة Nippon Life Insurance Company of America، التي زعمت أن امرأة كانت تستخدم ChatGPT كمستشار قانوني، وأنها تلقت توجيهات أدت إلى رفع دعاوى قضائية تافهة ضد شركة التأمين. اتهمت الشكوى OpenAI بممارسة مهنة المحاماة دون ترخيص. وفي بيان مكتوب لـ NPR، قالت OpenAI: “تفتقر هذه الشكوى إلى أي أساس على الإطلاق.” ومن جانبها، ترفض وال طرفَي المبالغة. “أعتقد أن المحامين الذين يفهمون كيفية استخدام الذكاء الاصطناعي التوليدي بفعالية وبشكل أخلاقي يستبدلون محامين لا يفعلون ذلك”، قالت. “هذا ما أعتقده بشأن المستقبل.”

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات