پروتکل اثبات نمونهگیری: تشویق به صداقت و مجازات نادرستی در استنتاج هوش مصنوعی غیرمتمرکز
در هوش مصنوعی غیرمتمرکز، اطمینان از یکپارچگی و قابلیت اطمینان ارائهدهندگان GPU بسیار مهم است. پروتکل اثبات نمونهگیری (PoSP)، همانطور که در تحقیقات اخیر از Holistic AI توضیح داده شده است، مکانیزمی پیچیده برای تشویق به بازیگران خوب و مجازات بازیگران بد ارائه میدهد. بیایید ببینیم این پروتکل چگونه کار میکند، انگیزههای اقتصادی، مجازاتها و کاربرد آن در استنتاج هوش مصنوعی غیرمتمرکز.
انگیزهها برای رفتار صادقانه
پاداشهای اقتصادی
در قلب پروتکل PoSP انگیزههای اقتصادی طراحی شدهاند تا به مشارکت صادقانه تشویق کنند. نودها که به عنوان تأییدکننده و اعتبارسنج عمل میکنند، بر اساس مشارکتهایشان پاداش میگیرند:
- تأییدکنندهها: اگر خروجی محاسبه شده آنها صحیح و بدون چالش باشد، پاداش (RA) دریافت میکنند.
- اعتبارسنجها: اگر نتایج آنها با تأییدکننده همخوانی داشته باشد و به عنوان صحیح تأیید شود، پاداش (RV/n) را به اشتراک میگذارند.
تعادل نش منحصر به فرد
پروتکل PoSP به گونهای طراحی شده است که به یک تعادل نش منحصر به فرد در استراتژیهای خالص برسد، جایی که همه نودها انگیزه دارند تا صادقانه عمل کنند. با همسو کردن سود فردی با امنیت سیستم، پروتکل تضمین میکند که صداقت سودآورترین استراتژی برای شرکتکنندگان است.
مجازاتها برای رفتار نادرست
مکانیزم مجازات
برای جلوگیری از رفتار نادرست، پروتکل PoSP از مکانیزم مجازات استفاده میکند. اگر یک تأییدکننده یا اعتبارسنج به نادرستی گرفتار شود، با مجازاتهای اقتصادی قابل توجهی (S) مواجه میشود. این تضمین میکند که هزینه نادرستی بسیار بیشتر از هر سود کوتاهمدت احتمالی است.
مکانیزم چالش
چالشهای تصادفی سیستم را بیشتر امن میکنند. با یک احتمال از پیش تعیین شده (p)، پروتکل یک چالش را فعال میکند که در آن چندین اعتبارسنج خروجی تأییدکننده را دوباره محاسبه میکنند. اگر اختلافاتی پیدا شود، بازیگران نادرست مجازات میشوند. این فرآیند انتخاب تصادفی باعث میشود که بازیگران بد نتوانند به راحتی تبانی کنند و بدون شناسایی تقلب کنند.
مراحل پروتکل PoSP
-
انتخاب تأییدکننده: یک نود به صورت تصادفی برای عمل به عنوان تأییدکننده انتخاب میشود و یک مقدار را محاسبه و خروجی میدهد.
-
احتمال چالش:
سیستم ممکن است بر اساس یک احتمال از پیش تعیین شده یک چالش را فعال کند.
- بدون چالش: اگر چالشی فعال نشود، تأییدکننده پاداش میگیرد.
- چالش فعال شده: تعدادی (n) اعتبارسنج به صورت تصادفی برای تأیید خروجی تأییدکننده انتخاب میشوند.
-
اعتبارسنجی:
هر اعتبارسنج به صورت مستقل نتیجه را محاسبه کرده و با خروجی تأییدکننده مقایسه میکند.
- تطابق: اگر همه نتایج تطابق داشته باشند، هم تأییدکننده و هم اعتبارسنجها پاداش میگیرند.
- عدم تطابق: یک فرآیند داوری صداقت تأییدکننده و اعتبارسنجها را تعیین میکند.
-
مجازاتها: نودهای نادرست مجازات میشوند، در حالی که اعتبارسنجهای صادق سهم پاداش خود را دریافت میکنند.
spML
پروتکل spML (یادگیری ماشینی مبتنی بر نمونهگیری) پیادهسازی پروتکل اثبات نمونهگیری (PoSP) در یک شبکه استنتاج هوش مصنوعی غیرمتمرکز است.
مراحل کلیدی
- ورودی کاربر: کاربر ورودی خود را به یک سرور به صورت تصادفی انتخاب شده (تأییدکننده) همراه با امضای دیجیتال خود ارسال میکند.
- خروجی سرور: سرور خروجی را محاسبه کرده و همراه با یک هش از نتیجه به کاربر ارسال میکند.
- مکانیزم چالش:
- با یک احتمال از پیش تعیین شده (p)، سیستم یک چالش را فعال میکند که در آن یک سرور دیگر (اعتبارسنج) به صورت تصادفی برای تأیید نتیجه انتخاب میشود.
- اگر چالشی فعال نشود، تأییدکننده پاداش (R) دریافت میکند و فرآیند خاتمه مییابد.
- تأیید:
- اگر چالشی فعال شود، کاربر همان ورودی را به اعتبارسنج ارسال میکند.
- اعتبارسنج نتیجه را محاسبه کرده و همراه با یک هش به کاربر ارسال میکند.
- مقایسه:
- کاربر هشهای خروجی تأییدکننده و اعتبارسنج را مقایسه میکند.
- اگر هشها تطابق داشته باشند، هم تأییدکننده و هم اعتبارسنج پاداش میگیرند و کاربر تخفیفی در هزینه پایه دریافت میکند.
- اگر هشها تطابق نداشته باشند، کاربر هر دو هش را به شبکه پخش میکند.
- داوری:
- شبکه رأی میدهد تا صداقت تأییدکننده و اعتبارسنج را بر اساس اختلافات تع یین کند.
- نودهای صادق پاداش میگیرند، در حالی که نودهای نادرست مجازات میشوند (مجازات میشوند).
اجزاء و مکانیزمهای کلیدی
- اجرای ML قطعی: از حساب ثابت و کتابخانههای نرمافزاری نقطه شناور برای اطمینان از نتایج ثابت و قابل تکرار استفاده میکند.
- طراحی بدون حالت: هر پرس و جو را به عنوان مستقل در نظر میگیرد و بدون حالت در طول فرآیند ML باقی میماند.
- مشارکت بدون مجوز: به هر کسی اجازه میدهد به شبکه بپیوندد و با اجرای یک سرور AI مشارکت کند.
- عملیات خارج از زنجیره: استنتاجهای AI به صورت خارج از زنجیره محاسبه میشوند تا بار روی بلاکچین کاهش یابد، با نتایج و امضاهای دیجیتال که مستقیماً به کاربران منتقل میشوند.
- عملیات روی زنجیره: عملکردهای حیاتی مانند محاسبات موجودی و مکانیزمهای چالش به صورت روی زنجیره انجام میشوند تا شفافیت و امنیت را تضمین کنند.