الثقة التشفيرية: ميرا تجعل مخرجات الذكاء الاصطناعي غير قابلة للتلاعب

لم أدرك مدى هشاشة إجابات الذكاء الاصطناعي حتى فكرت في مدى سهولة تغييرها. نظام الذكاء الاصطناعي يولد ردًا. يبدو مقنعًا. ويبدو واثقًا. لكن في اللحظة التي يخرج فيها عن النموذج، لا يوجد ضمان بأنه لم يتم تعديله أو فهمه بشكل خاطئ أو تفسيره بشكل غير صحيح. هذه هي الضعف الصامت للبنية التحتية الحالية للذكاء الاصطناعي. ليست الذكاء. النزاهة. يعمل الذكاء الاصطناعي بشكل احتمالي. يتوقع كيف يجب أن يبدو الجواب استنادًا إلى أنماط البيانات. هذا يعني أن المخرجات يمكن أن تكون غير مؤكدة، غير متسقة، أو حتى وهمية. بدون التحقق، الشيء الوحيد الذي يملكه المستخدمون هو ثقة النموذج. تقترب ميرا من المشكلة بطريقة مختلفة. بدلاً من الاعتماد على نموذج ذكاء اصطناعي واحد، تبني شبكة تحقق تقيم المخرجات بشكل جماعي. يتم تفكيك ردود الذكاء الاصطناعي إلى ادعاءات أصغر، ثم يتم فحصها بواسطة نماذج مستقلة متعددة عبر نظام لامركزي. لكن الابتكار الأعمق ليس فقط في التحقق. إنه تثبيت تلك النتائج بطريقة تشفيرية. بمجرد التحقق من الرد، يمكن تسجيل النتيجة من خلال بنية بلوكشين، مما يخلق سجلًا غير قابل للتغيير بعد ذلك. هذا يجعل المخرجات قابلة للمراجعة ومقاومة للتلاعب بدلاً من أن تكون مؤقتة وغير شفافة. هذا التغيير البسيط يغير طبيعة معلومات الذكاء الاصطناعي. عادةً، توجد مخرجات الذكاء الاصطناعي كنص مؤقت. تظهر، تُقرأ، ثم تختفي. لا يوجد سجل موثوق يثبت ما أنشأه النظام فعليًا أو كيف تم التحقق من الإجابة. تغيير التثبيت التشفيري يغير هذا الديناميكيات. تصبح نتائج التحقق آثارًا. كل مخرج تم التحقق منه يمكن أن يحمل شهادة تشفيرية، تثبت أن شبكة من المدققين اتفقت على دقته في لحظة زمنية معينة. هذا يحول الذكاء الاصطناعي من مولد احتمالي إلى شيء أقرب إلى نظام قابل للإثبات. ليس لأن النموذج نفسه يصبح حتميًا، ولكن لأن عملية التحقق تخلق سجلًا يمكن التحقق منه. فكر في الفرق. رد الذكاء الاصطناعي العادي يقول: “هذا محتمل أن يكون صحيحًا.” رد موثوق يقول: “تم التحقق من هذا الناتج، واتفق عليه، وتسجيله.” هذا التمييز مهم أكثر مما يبدو. الأنظمة الاحتمالية تعتمد على الثقة في النموذج. الأنظمة القابلة للإثبات تعتمد على الثقة في العملية. ويمكن تأمين العمليات. يجعل شبكة التحقق اللامركزية لميرا التلاعب صعبًا من خلال توزيع التحقق عبر مشاركين مستقلين مع حوافز اقتصادية. يراهن المدققون على موارد ويكافأون على التحقق الصادق، بينما يمكن معاقبة السلوك غير الصادق. هذا يقدم نفس فلسفة الأمان التي تحمي البلوكتشين نفسه. بدلاً من الاعتماد على سلطة مركزية، تنشأ الثقة من الإجماع الموزع والضمانات التشفيرية. بالنسبة للذكاء الاصطناعي، يخلق هذا نوعًا جديدًا من البنية التحتية. طبقة ثقة. بمجرد أن تصبح المخرجات مقاومة للتلاعب وقابلة للمراجعة، تصبح فئات كاملة من التطبيقات أكثر أمانًا للأتمتة. يمكن لأنظمة الذكاء الاصطناعي المالية الاعتماد على رؤى موثوقة بدلاً من تخمينات احتمالية. يمكن للوكلاء المستقلين تنفيذ الإجراءات استنادًا إلى مخرجات تحمل دليل التحقق. يمكن للباحثين تتبع كيفية التحقق من صحة الاستنتاجات بدلاً من الاعتماد على استنتاجات النموذج غير الشفافة. يتغير التفاعل مع الذكاء الاصطناعي أيضًا. حاليًا، يعامل المستخدمون ردود الذكاء الاصطناعي كاقتراحات. مفيدة، لكنها ليست موثوقة. مع التحقق التشفيري، تبدأ مخرجات الذكاء الاصطناعي في التشابه مع المعرفة المنظمة بدلاً من النصوص التخيلية. يتوقف النظام عن طلب الثقة من المستخدمين في النموذج. بدلاً من ذلك، يوفر دليلًا على أن النتيجة تم التحقق منها وحفظها. قد يكون هذا هو التحول الأعمق الذي تدفع إليه ميرا. ليس فقط تحسين إجابات الذكاء الاصطناعي. بل إجابات تحمل ثقة تشفيرية. $MIRA @mira_network #Mira

MIRA6.23%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.4Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.4Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • تثبيت