ข้ามไปยังเนื้อหาหลัก

โพสต์หนึ่งโพสต์ แท็กด้วย "research"

ดูแท็กทั้งหมด

LinguaLinked: การเสริมพลังอุปกรณ์เคลื่อนที่ด้วยโมเดลภาษาขนาดใหญ่แบบกระจาย

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

ความต้องการในการใช้งานโมเดลภาษาขนาดใหญ่ (LLMs) บนอุปกรณ์เคลื่อนที่เพิ่มขึ้น เนื่องจากความต้องการความเป็นส่วนตัว ลดความหน่วง และการใช้งานแบนด์วิดธ์อย่างมีประสิทธิภาพ อย่างไรก็ตาม ความต้องการหน่วยความจำและการคำนวณที่มากของ LLMs เป็นความท้าทายที่สำคัญ เข้าสู่ LinguaLinked ระบบใหม่ที่พัฒนาโดยกลุ่มนักวิจัยจาก UC Irvine ซึ่งออกแบบมาเพื่อให้การอนุมาน LLM แบบกระจายและกระจายศูนย์กลางผ่านอุปกรณ์เคลื่อนที่หลายเครื่อง โดยใช้ความสามารถร่วมกันของพวกเขาเพื่อทำงานที่ซับซ้อนอย่างมีประสิทธิภาพ

ความท้าทาย

การใช้งาน LLMs เช่น GPT-3 หรือ BLOOM บนอุปกรณ์เคลื่อนที่เป็นเรื่องท้าทายเนื่องจาก:

  • ข้อจำกัดของหน่วยความจำ: LLMs ต้องการหน่วยความจำจำนวนมาก ซึ่งมักเกินความจุของอุปกรณ์เคลื่อนที่แต่ละเครื่อง
  • ข้อจำกัดในการคำนวณ: อุปกรณ์เคลื่อนที่มักมีพลังการประมวลผลจำกัด ทำให้ยากต่อการรันโมเดลขนาดใหญ่
  • ความกังวลเรื่องความเป็นส่วนตัว: การส่งข้อมูลไปยังเซิร์ฟเวอร์ศูนย์กลางเพื่อประมวลผลทำให้เกิดปัญหาความเป็นส่วนตัว

วิธีแก้ปัญหาของ LinguaLinked

LinguaLinked แก้ปัญหาเหล่านี้ด้วยกลยุทธ์หลักสามประการ:

  1. การกำหนดโมเดลที่ปรับให้เหมาะสม:

    • ระบบแบ่ง LLMs ออกเป็นกราฟย่อยที่เล็กลงโดยใช้การปรับให้เหมาะสมเชิงเส้นเพื่อจับคู่แต่ละส่วนกับความสามารถของอุปกรณ์
    • สิ่งนี้ช่วยให้ใช้ทรัพยากรอย่างมีประสิทธิภาพและลดการส่งข้อมูลระหว่างอุปกรณ์
  2. การปรับสมดุลโหลดในเวลาจริง:

    • LinguaLinked ตรวจสอบประสิทธิภาพของอุปกรณ์อย่างต่อเนื่องและกระจายงานใหม่เพื่อป้องกันการเกิดคอขวด
    • วิธีการแบบไดนามิกนี้ช่วยให้ใช้ทรัพยากรที่มีอยู่ทั้งหมดอย่างมีประสิทธิภาพ เพิ่มความตอบสนองของระบบโดยรวม
  3. การสื่อสารที่ปรับให้เหมาะสม:

    • แผนที่การส่งข้อมูลที่มีประสิทธิภาพช่วยแนะนำการไหลของข้อมูลระหว่างอุปกรณ์ รักษาความสมบูรณ์ของโครงสร้างโมเดล
    • วิธีนี้ลดความหน่วงและประกันการประมวลผลข้อมูลที่ทันเวลาในเครือข่ายของอุปกรณ์เคลื่อนที่

โมเดลภาษาขนาดใหญ่ (LLM) เดียวถูกแบ่งออกเป็นส่วนต่าง ๆ (หรือส่วนย่อย) และกระจายไปยังอุปกรณ์เคลื่อนที่หลายเครื่อง วิธีนี้ช่วยให้อุปกรณ์แต่ละเครื่องจัดการเพียงเศษเสี้ยวของความต้องการในการคำนวณและการจัดเก็บทั้งหมด ทำให้สามารถรันโมเดลที่ซับซ้อนได้แม้ในอุปกรณ์ที่มีทรัพยากรจำกัด นี่คือการทำงานของวิธีนี้:

การแบ่งและกระจายโมเดล

  1. การแบ่งโมเดล:
    • โมเดลภาษาขนาดใหญ่ถูกแปลงเป็นกราฟการคำนวณที่แต่ละการดำเนินการภายในเครือข่ายถูกแทนด้วยโหนด
    • กราฟนี้ถูกแบ่งออกเป็นกราฟย่อยที่เล็กลง ซึ่งแต่ละกราฟสามารถทำงานได้อย่างอิสระ
  2. การกำหนดโมเดลที่ปรับให้เหมาะสม:
    • โดยใช้การปรับให้เหมาะสมเชิงเส้น กราฟย่อยเหล่านี้ (หรือส่วนของโมเดล) ถูกกำหนดให้กับอุปกรณ์เคลื่อนที่ต่าง ๆ
    • การกำหนดพิจารณาความสามารถในการคำนวณและหน่วยความจำของอุปกรณ์แต่ละเครื่อง เพื่อให้แน่ใจว่าการใช้ทรัพยากรมีประสิทธิภาพและลดค่าใช้จ่ายในการส่งข้อมูลระหว่างอุปกรณ์
  3. การดำเนินการอนุมานร่วมกัน:
    • อุปกรณ์เคลื่อนที่แต่ละเครื่องประมวลผลส่วนที่ได้รับมอบหมายของโมเดล
    • อุปกรณ์สื่อสารกันเพื่อแลกเปลี่ยนผลลัพธ์ระหว่างกันตามที่จำเป็น เพื่อให้แน่ใจว่าการดำเนินการอนุมานโดยรวมเสร็จสมบูรณ์อย่างถูกต้อง
    • กลยุทธ์การสื่อสารที่ปรับให้เหมาะสมถูกใช้เพื่อรักษาความสมบูรณ์ของโครงสร้างโมเดลเดิมและให้แน่ใจว่าการไหลของข้อมูลมีประสิทธิภาพ

ตัวอย่างสถานการณ์

ลองนึกภาพโมเดลภาษาขนาดใหญ่เช่น GPT-3 ถูกแบ่งออกเป็นหลายส่วน อุปกรณ์เคลื่อนที่เครื่องหนึ่งอาจจัดการการฝังโทเค็นเริ่มต้นและเลเยอร์แรก ๆ ของโมเดล ในขณะที่อีกเครื่องหนึ่งประมวลผลเลเยอร์กลาง และเครื่องที่สามทำเลเยอร์สุดท้ายและสร้างผลลัพธ์ ในกระบวนการนี้ อุปกรณ์จะแชร์ผลลัพธ์ระหว่างกันเพื่อให้แน่ใจว่าการอนุมานโมเดลทั้งหมดดำเนินการได้อย่างราบรื่น

ประสิทธิภาพและผลลัพธ์

ประสิทธิภาพของ LinguaLinked ได้รับการพิสูจน์ผ่านการทดสอบอย่างกว้างขวางบนอุปกรณ์ Android ต่าง ๆ ทั้งระดับสูงและระดับต่ำ ผลการค้นหาหลักรวมถึง:

  • ความเร็วในการอนุมาน: เมื่อเปรียบเทียบกับฐานข้อมูล LinguaLinked เร่งประสิทธิภาพการอนุมานได้ 1.11× ถึง 1.61× ในการตั้งค่าแบบเธรดเดียวและ 1.73× ถึง 2.65× ด้วยการใช้หลายเธรด
  • การปรับสมดุลโหลด: การปรับสมดุลโหลดในเวลาจริงของระบบช่วยเพิ่มประสิทธิภาพ โดยมีการเร่งความเร็วโดยรวม 1.29× ถึง 1.32×
  • ความสามารถในการขยายตัว: โมเดลที่ใหญ่กว่ามีประโยชน์อย่างมากจากการกำหนดโมเดลที่ปรับให้เหมาะสมของ LinguaLinked แสดงให้เห็นถึงความสามารถในการขยายตัวและประสิทธิภาพในการจัดการงานที่ซับซ้อน

กรณีการใช้งานและแอปพลิเคชัน

LinguaLinked เหมาะสมอย่างยิ่งสำหรับสถานการณ์ที่ความเป็นส่วนตัวและประสิทธิภาพมีความสำคัญ แอปพลิเคชันรวมถึง:

  • การสร้างและสรุปข้อความ: การสร้างข้อความที่สอดคล้องและเกี่ยวข้องกับบริบทในเครื่องบนอุปกรณ์เคลื่อนที่
  • การวิเคราะห์ความรู้สึก: การจัดประเภทข้อมูลข้อความอย่างมีประสิทธิภาพโดยไม่กระทบต่อความเป็นส่วนตัวของผู้ใช้
  • การแปลแบบเรียลไทม์: การให้การแปลที่รวดเร็วและแม่นยำโดยตรงบนอุปกรณ์

ทิศทางในอนาคต

LinguaLinked เปิดทางสำหรับความก้าวหน้าเพิ่มเติมใน AI บนอุปกรณ์เคลื่อนที่:

  • ประสิทธิภาพด้านพลังงาน: การทำซ้ำในอนาคตจะเน้นการเพิ่มประสิทธิภาพการใช้พลังงานเพื่อป้องกันการระบายแบตเตอรี่และความร้อนเกินในระหว่างงานที่เข้มข้น
  • ความเป็นส่วนตัวที่เพิ่มขึ้น: การปรับปรุงอย่างต่อเนื่องในการประมวลผลแบบกระจายศูนย์กลางจะทำให้มั่นใจได้ถึงความเป็นส่วนตัวของข้อมูลที่ดียิ่งขึ้น
  • โมเดลหลายรูปแบบ: การขยาย LinguaLinked เพื่อรองรับโมเดลหลายรูปแบบสำหรับการใช้งานในโลกแห่งความเป็นจริงที่หลากหลาย

บทสรุป

LinguaLinked เป็นก้าวกระโดดที่สำคัญในการใช้งาน LLMs บนอุปกรณ์เคลื่อนที่ โดยการกระจายภาระการคำนวณและการใช้ทรัพยากรอย่างเหมาะสม ทำให้ AI ขั้นสูงสามารถเข้าถึงและมีประสิทธิภาพในอุปกรณ์ที่หลากหลาย นวัตกรรมนี้ไม่เพียงแต่เพิ่มประสิทธิภาพ แต่ยังรับประกันความเป็นส่วนตัวของข้อมูล วางรากฐานสำหรับแอปพลิเคชัน AI บนมือถือที่เป็นส่วนตัวและปลอดภัยมากขึ้น

ทำความเข้าใจโปรโตคอล Proof of Inference

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

การเพิ่มขึ้นของโมเดลภาษาขนาดใหญ่ (LLMs) และการคำนวณแบบกระจายได้แนะนำความท้าทายที่สำคัญ โดยเฉพาะอย่างยิ่งเกี่ยวกับการตรวจสอบและความสมบูรณ์ของการคำนวณ AI ในระบบที่กระจายตัว โปรโตคอล 6079 Proof of Inference (PoIP) จัดการกับความท้าทายเหล่านี้โดยการสร้างกรอบการทำงานที่แข็งแกร่งสำหรับการอนุมาน AI แบบกระจาย เพื่อให้แน่ใจว่าการคำนวณมีความน่าเชื่อถือและปลอดภัย

ความท้าทาย: ความปลอดภัยในการอนุมาน AI แบบกระจาย

การอนุมาน AI แบบกระจายเผชิญกับปัญหาเฉพาะในการรับรองความสมบูรณ์และความถูกต้องของการคำนวณที่ดำเนินการผ่านเครือข่ายของโหนดที่กระจาย วิธีการตรวจสอบแบบดั้งเดิมไม่เพียงพอเนื่องจาก ธรรมชาติที่ไม่แน่นอนของโมเดล AI หลายตัว หากไม่มีโปรโตคอลที่แข็งแกร่ง มันยากที่จะรับประกันว่าอุปกรณ์ฮาร์ดแวร์ที่กระจายจะคืนผลลัพธ์การอนุมานที่ถูกต้อง

แนะนำโปรโตคอล Proof of Inference (PoIP)

โปรโตคอล 6079 Proof of Inference (PoIP) ให้โซลูชันที่ล้ำสมัยสำหรับการรักษาความปลอดภัยในการอนุมาน AI แบบกระจาย โดยใช้การผสมผสานระหว่าง กลไกความปลอดภัยทางเศรษฐศาสตร์คริปโต หลักฐานการเข้ารหัส และ แนวทางทฤษฎีเกม เพื่อกระตุ้นพฤติกรรมที่ถูกต้องและลงโทษกิจกรรมที่เป็นอันตรายในเครือข่าย

ส่วนประกอบหลักของ PoIP

มาตรฐานเครื่องยนต์อนุมาน

มาตรฐานเครื่องยนต์อนุมานกำหนดรูปแบบการคำนวณและมาตรฐานสำหรับการดำเนินงานการอนุมาน AI ในเครือข่ายแบบกระจาย การมาตรฐานนี้ช่วยให้มั่นใจว่าการทำงานของโมเดล AI บนอุปกรณ์ฮาร์ดแวร์ที่กระจายมีความสม่ำเสมอและน่าเชื่อถือ

โปรโตคอล Proof of Inference

โปรโตคอลทำงานผ่านหลายชั้น:

  1. ชั้นบริการ: ดำเนินการอนุมานโมเดลบนฮาร์ดแวร์จริง
  2. ชั้นควบคุม: จัดการจุดเชื่อมต่อ API ประสานการกระจายโหลด และจัดการการวินิจฉัย
  3. ชั้นธุรกรรม: ใช้ตารางแฮชแบบกระจาย (DHT) เพื่อติดตามข้อมูลเมตาธุรกรรม
  4. ชั้นหลักฐานเชิงความน่าจะเป็น: ตรวจสอบธุรกรรมผ่านกลไกการเข้ารหัสและเศรษฐศาสตร์
  5. ชั้นเศรษฐกิจ: จัดการการชำระเงิน การเดิมพัน การตัดสิทธิ์ ความปลอดภัย การปกครอง และการระดมทุนสาธารณะ

การรับรองความสมบูรณ์และความปลอดภัย

PoIP ใช้กลไกหลายอย่างเพื่อรับรองความสมบูรณ์ของการคำนวณการอนุมาน AI:

  • การตรวจสอบต้นไม้เมอร์เคิล: รับรองว่าข้อมูลนำเข้าถึง GPU โดยไม่ถูกแก้ไข
  • ตารางแฮชแบบกระจาย (DHT): ซิงโครไนซ์ข้อมูลธุรกรรมระหว่างโหนดเพื่อตรวจจับความคลาดเคลื่อน
  • การทดสอบวินิจฉัย: ประเมินความสามารถของฮาร์ดแวร์และรับรองการปฏิบัติตามมาตรฐานเครือข่าย

แรงจูงใจทางเศรษฐกิจและทฤษฎีเกม

โปรโตคอลใช้แรงจูงใจทางเศรษฐกิจเพื่อส่งเสริมพฤติกรรมที่พึงประสงค์ในหมู่โหนด:

  • การเดิมพัน: โหนดเดิมพันโทเค็นเพื่อแสดงความมุ่งมั่นและเพิ่มความน่าเชื่อถือ
  • การสร้างชื่อเสียง: งานที่สำเร็จช่วยเพิ่มชื่อเสียงของโหนด ทำให้มันน่าสนใจยิ่งขึ้นสำหรับงานในอนาคต
  • กลไกเกมแข่งขัน: โหนดแข่งขันเพื่อให้บริการที่ดีที่สุด เพื่อให้มั่นใจว่ามีการปรับปรุงอย่างต่อเนื่องและการปฏิบัติตามมาตรฐาน

คำถามที่พบบ่อย

โปรโตคอล Proof of Inference คืออะไร?

โปรโตคอล Proof of Inference (PoIP) เป็นระบบที่ออกแบบมาเพื่อรักษาความปลอดภัยและตรวจสอบการคำนวณการอนุมาน AI ในเครือข่ายแบบกระจาย มันช่วยให้แน่ใจว่าโหนดฮาร์ดแวร์ที่กระจายคืนผลลัพธ์ที่ถูกต้องและน่าเชื่อถือ

PoIP รับรองความสมบูรณ์ของการคำนวณ AI ได้อย่างไร?

PoIP ใช้กลไกเช่นการตรวจสอบต้นไม้เมอร์เคิล ตารางแฮชแบบกระจาย (DHT) และการทดสอบวินิจฉัยเพื่อยืนยันความสมบูรณ์ของการคำนวณ AI เครื่องมือเหล่านี้ช่วยตรวจจับความคลาดเคลื่อนและรับรองความถูกต้องของข้อมูลที่ประมวลผลในเครือข่าย

แรงจูงใจทางเศรษฐกิจมีบทบาทอย่างไรใน PoIP?

แรงจูงใจทางเศรษฐกิจใน PoIP สนับสนุนพฤติกรรมที่พึงประสงค์ในหมู่โหนด โหนดเดิมพันโทเค็นเพื่อแสดงความมุ่งมั่น สร้างชื่อเสียงผ่านงานที่สำเร็จ และแข่งขันเพื่อให้บริการที่ดีที่สุด ระบบนี้ช่วยให้มั่นใจว่ามีการปรับปรุงอย่างต่อเนื่องและการปฏิบัติตามมาตรฐานเครือข่าย

ชั้นหลักของ PoIP มีอะไรบ้าง?

PoIP ทำงานผ่านห้าชั้นหลัก: ชั้นบริการ ชั้นควบคุม ชั้นธุรกรรม ชั้นหลักฐานเชิงความน่าจะเป็น และชั้นเศรษฐกิจ แต่ละชั้นมีบทบาทสำคัญในการรับรองความปลอดภัย ความสมบูรณ์ และประสิทธิภาพของการอนุมาน AI ในเครือข่ายแบบกระจาย

สรุป

โปรโตคอล 6079 Proof of Inference เป็นการพัฒนาที่น่าสนใจในด้าน AI แบบกระจาย โดยการรับรองความปลอดภัยและความน่าเชื่อถือของการคำนวณ AI ในเครือข่ายที่กระจาย PoIP แสดงถึงวิธีใหม่สำหรับการนำไปใช้และนวัตกรรมที่กว้างขวางขึ้นในแอปพลิเคชัน AI แบบกระจาย ขณะที่เราก้าวไปสู่อนาคตที่กระจายมากขึ้น โปรโตคอลเช่น PoIP จะมีประโยชน์ในการรักษาความไว้วางใจและความสมบูรณ์ในระบบที่ขับเคลื่อนด้วย AI

โปรโตคอล Proof of Sampling: กระตุ้นความซื่อสัตย์และลงโทษความไม่ซื่อสัตย์ในระบบ AI แบบกระจายศูนย์

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

ใน AI แบบกระจายศูนย์ การรักษาความสมบูรณ์และความน่าเชื่อถือของผู้ให้บริการ GPU เป็นสิ่งสำคัญ โปรโตคอล Proof of Sampling (PoSP) ตามที่ระบุไว้ในงานวิจัยล่าสุดจาก Holistic AI ให้กลไกที่ซับซ้อนในการกระตุ้นผู้กระทำดีในขณะที่ลดทอนผู้กระทำไม่ดี มาดูกันว่าโปรโตคอลนี้ทำงานอย่างไร สิ่งจูงใจทางเศรษฐกิจ การลงโทษ และการประยุกต์ใช้กับการอนุมาน AI แบบกระจายศูนย์

สิ่งจูงใจสำหรับพฤติกรรมที่ซื่อสัตย์

รางวัลทางเศรษฐกิจ

หัวใจของโปรโตคอล PoSP คือสิ่งจูงใจทางเศรษฐกิจที่ออกแบบมาเพื่อส่งเสริมการมีส่วนร่วมที่ซื่อสัตย์ โหนดที่ทำหน้าที่เป็นผู้ยืนยันและผู้ตรวจสอบจะได้รับรางวัลตามการมีส่วนร่วมของพวกเขา:

  • ผู้ยืนยัน: ได้รับรางวัล (RA) หากผลลัพธ์ที่คำนวณถูกต้องและไม่มีการท้าทาย
  • ผู้ตรวจสอบ: แบ่งปันรางวัล (RV/n) หากผลลัพธ์ของพวกเขาสอดคล้องกับผู้ยืนยันและได้รับการยืนยันว่าถูกต้อง

สมดุลแนชที่ไม่ซ้ำกัน

โปรโตคอล PoSP ถูกออกแบบมาเพื่อให้ถึงสมดุลแนชที่ไม่ซ้ำกันในกลยุทธ์บริสุทธิ์ ที่ซึ่งโหนดทั้งหมดมีแรงจูงใจที่จะกระทำอย่างซื่อสัตย์ โดยการจัดแนวกำไรส่วนบุคคลกับความปลอดภัยของระบบ โปรโตคอลนี้ทำให้แน่ใจว่าความซื่อสัตย์เป็นกลยุทธ์ที่ทำกำไรได้มากที่สุดสำหรับผู้เข้าร่วม

การลงโทษสำหรับพฤติกรรมที่ไม่ซื่อสัตย์

กลไกการลดทอน

เพื่อยับยั้งพฤติกรรมที่ไม่ซื่อสัตย์ โปรโตคอล PoSP ใช้กลไกการลดทอน หากผู้ยืนยันหรือผู้ตรวจสอบถูกจับได้ว่าทำไม่ซื่อสัตย์ พวกเขาจะเผชิญกับการลงโทษทางเศรษฐกิจที่สำคัญ (S) ซึ่งทำให้มั่นใจว่าต้นทุนของความไม่ซื่อสัตย์นั้นมากกว่าผลประโยชน์ระยะสั้นที่อาจเกิดขึ้น

กลไกการท้าทาย

การท้าทายแบบสุ่มช่วยเพิ่มความปลอดภัยให้กับระบบ ด้วยความน่าจะเป็นที่กำหนดไว้ล่วงหน้า (p) โปรโตคอลจะกระตุ้นการท้าทายที่ผู้ตรวจสอบหลายคนจะคำนวณผลลัพธ์ของผู้ยืนยันใหม่ หากพบความแตกต่าง ผู้กระทำไม่ซื่อสัตย์จะถูกลงโทษ กระบวนการเลือกแบบสุ่มนี้ทำให้ยากสำหรับผู้กระทำไม่ดีที่จะสมรู้ร่วมคิดและโกงโดยไม่ถูกตรวจจับ

ขั้นตอนของโปรโตคอล PoSP

  1. การเลือกผู้ยืนยัน: โหนดจะถูกเลือกแบบสุ่มเพื่อทำหน้าที่เป็นผู้ยืนยัน คำนวณและส่งออกค่า

  2. ความน่าจะเป็นของการท้าทาย:

    ระบบอาจกระตุ้นการท้าทายตามความน่าจะเป็นที่กำหนดไว้ล่วงหน้า

    • ไม่มีการท้าทาย: ผู้ยืนยันจะได้รับรางวัลหากไม่มีการท้าทาย
    • การท้าทายถูกกระตุ้น: ผู้ตรวจสอบจำนวนหนึ่ง (n) จะถูกเลือกแบบสุ่มเพื่อยืนยันผลลัพธ์ของผู้ยืนยัน
  3. การตรวจสอบ:

    ผู้ตรวจสอบแต่ละคนคำนวณผลลัพธ์อย่างอิสระและเปรียบเทียบกับผลลัพธ์ของผู้ยืนยัน

    • ตรงกัน: หากผลลัพธ์ทั้งหมดตรงกัน ทั้งผู้ยืนยันและผู้ตรวจสอบจะได้รับรางวัล
    • ไม่ตรงกัน: กระบวนการอนุญาโตตุลาการจะกำหนดความซื่อสัตย์ของผู้ยืนยันและผู้ตรวจสอบ
  4. การลงโทษ: โหนดที่ไม่ซื่อสัตย์จะถูกลงโทษ ในขณะที่ผู้ตรวจสอบที่ซื่อสัตย์จะได้รับส่วนแบ่งรางวัลของพวกเขา

SpML

โปรโตคอล spML (sampling-based Machine Learning) เป็นการประยุกต์ใช้โปรโตคอล Proof of Sampling (PoSP) ภายในเครือข่ายการอนุมาน AI แบบกระจายศูนย์

ขั้นตอนสำคัญ

  1. การป้อนข้อมูลของผู้ใช้: ผู้ใช้ส่งข้อมูลของพวกเขาไปยังเซิร์ฟเวอร์ที่เลือกแบบสุ่ม (ผู้ยืนยัน) พร้อมกับลายเซ็นดิจิทัลของพวกเขา
  2. ผลลัพธ์ของเซิร์ฟเวอร์: เซิร์ฟเวอร์คำนวณผลลัพธ์และส่งกลับไปยังผู้ใช้พร้อมกับแฮชของผลลัพธ์
  3. กลไกการท้าทาย:
    • ด้วยความน่าจะเป็นที่กำหนดไว้ล่วงหน้า (p) ระบบจะกระตุ้นการท้าทายที่เซิร์ฟเวอร์อื่น (ผู้ตรวจสอบ) ถูกเลือกแบบสุ่มเพื่อยืนยันผลลัพธ์
    • หากไม่มีการท้าทาย ผู้ยืนยันจะได้รับรางวัล (R) และกระบวนการสิ้นสุด
  4. การตรวจสอบ:
    • หากมีการท้าทาย ผู้ใช้จะส่งข้อมูลเดียวกันไปยังผู้ตรวจสอบ
    • ผู้ตรวจสอบคำนวณผลลัพธ์และส่งกลับไปยังผู้ใช้พร้อมกับแฮช
  5. การเปรียบเทียบ:
    • ผู้ใช้เปรียบเทียบแฮชของผลลัพธ์ของผู้ยืนยันและผู้ตรวจสอบ
    • หากแฮชตรงกัน ทั้งผู้ยืนยันและผู้ตรวจสอบจะได้รับรางวัล และผู้ใช้จะได้รับส่วนลดจากค่าธรรมเนียมพื้นฐาน
    • หากแฮชไม่ตรงกัน ผู้ใช้จะกระจายแฮชทั้งสองไปยังเครือข่าย
  6. อนุญาโตตุลาการ:
    • เครือข่ายลงคะแนนเพื่อกำหนดความซื่อสัตย์ของผู้ยืนยันและผู้ตรวจสอบตามความแตกต่าง
    • โหนดที่ซื่อสัตย์จะได้รับรางวัล ในขณะที่โหนดที่ไม่ซื่อสัตย์จะถูกลงโทษ (ลดทอน)

ส่วนประกอบและกลไกที่สำคัญ

  • การดำเนินการ ML แบบกำหนดได้: ใช้การคำนวณแบบจุดคงที่และไลบรารีจุดลอยตัวที่ใช้ซอฟต์แวร์เพื่อให้ได้ผลลัพธ์ที่สอดคล้องและสามารถทำซ้ำได้
  • การออกแบบที่ไม่มีสถานะ: ปฏิบัติต่อการสืบค้นแต่ละครั้งเป็นอิสระ รักษาความไม่มีสถานะตลอดกระบวนการ ML
  • การมีส่วนร่วมที่ไม่ต้องขออนุญาต: อนุญาตให้ทุกคนเข้าร่วมเครือข่ายและมีส่วนร่วมโดยการเรียกใช้เซิร์ฟเวอร์ AI
  • การดำเนินการนอกเชน: การอนุมาน AI จะถูกคำนวณนอกเชนเพื่อลดภาระบนบล็อกเชน โดยผลลัพธ์และลายเซ็นดิจิทัลจะถูกส่งตรงไปยังผู้ใช้
  • การดำเนินการบนเชน: ฟังก์ชันที่สำคัญ เช่น การคำนวณยอดคงเหลือและกลไกการท้าทาย จะถูกจัดการบนเชนเพื่อให้มั่นใจในความโปร่งใสและความปลอดภัย

ข้อดีของ spML

  • ความปลอดภัยสูง: บรรลุความปลอดภัยผ่านสิ่งจูงใจทางเศรษฐกิจ ทำให้โหนดกระทำอย่างซื่อสัตย์เนื่องจากมีโอกาสถูกลงโทษสำหรับความไม่ซื่อสัตย์
  • ภาระการคำนวณต่ำ: ผู้ตรวจสอบเพียงแค่ต้องเปรียบเทียบแฮชในกรณีส่วนใหญ่ ลดภาระการคำนวณระหว่างการตรวจสอบ
  • ความสามารถในการขยายตัว: สามารถจัดการกิจกรรมเครือข่ายขนาดใหญ่ได้โดยไม่ลดประสิทธิภาพลงอย่างมาก
  • ความเรียบง่าย: รักษาความเรียบง่ายในการดำเนินการ เพิ่มความสะดวกในการรวมและการบำรุงรักษา

การเปรียบเทียบกับโปรโตคอลอื่น

  • Optimistic Fraud Proof (opML):
    • อาศัยการลดทอนทางเศรษฐกิจสำหรับพฤติกรรมฉ้อโกงและกลไกการแก้ไขข้อพิพาท
    • มีความเสี่ยงต่อกิจกรรมฉ้อโกงหากไม่มีผู้ตรวจสอบที่ซื่อสัตย์เพียงพอ
  • Zero Knowledge Proof (zkML):
    • รับรองความปลอดภัยสูงผ่านการพิสูจน์ด้วยการเข้ารหัส
    • เผชิญกับความท้าทายในการขยายตัวและประสิทธิภาพเนื่องจากภาระการคำนวณสูง
  • spML:
    • รวมความปลอดภัยสูงผ่านสิ่งจูงใจทางเศรษฐกิจ ภาระการคำนวณต่ำ และความสามารถในการขยายตัวสูง
    • ทำให้กระบวนการตรวจสอบง่ายขึ้นโดยมุ่งเน้นที่การเปรียบเทียบแฮช ลดความจำเป็นในการคำนวณที่ซับซ้อนระหว่างการท้าทาย

สรุป

โปรโตคอล Proof of Sampling (PoSP) สามารถสร้างสมดุลระหว่างความจำเป็นในการกระตุ้นผู้กระทำดีและยับยั้งผู้กระทำไม่ดีได้อย่างมีประสิทธิภาพ เพื่อให้มั่นใจในความปลอดภัยและความน่าเชื่อถือโดยรวมของระบบแบบกระจายศูนย์ โดยการรวมรางวัลทางเศรษฐกิจกับการลงโทษที่เข้มงวด PoSP ส่งเสริมสภาพแวดล้อมที่พฤติกรรมที่ซื่อสัตย์ไม่เพียงแต่ได้รับการสนับสนุน แต่ยังจำเป็นสำหรับความสำเร็จอีกด้วย เมื่อ AI แบบกระจายศูนย์ยังคงเติบโต โปรโตคอลอย่าง PoSP จะมีความสำคัญในการรักษาความสมบูรณ์และความน่าเชื่อถือของระบบขั้นสูงเหล่านี้

การกระจายศูนย์ AI: ภาพรวม

· อ่านหนึ่งนาที
Dora Noda
Software Engineer

การรวมกันของบล็อกเชนและ AI กำลังได้รับความสนใจจากตลาดอย่างมาก ด้วย ChatGPT ที่มีผู้ใช้นับร้อยล้านคนอย่างรวดเร็วและหุ้นของ Nvidia ที่พุ่งสูงขึ้นถึงแปดเท่าในปี 2023 AI ได้สร้างตัวเองเป็นแนวโน้มที่โดดเด่นแล้ว อิทธิพลนี้กำลังแผ่ขยายไปยังภาคส่วนที่เกี่ยวข้องเช่นบล็อกเชน ซึ่งการประยุกต์ใช้ AI กำลังถูกสำรวจ

การกระจายศูนย์ AI: ภาพรวม

ปัจจุบัน คริปโตมีบทบาทเสริมใน AI โดยมีศักยภาพในการเติบโตอย่างมาก องค์กรส่วนใหญ่ยังอยู่ในขั้นตอนการสำรวจ โดยมุ่งเน้นไปที่การโทเค็นพลังการคำนวณ (คลาวด์และตลาด), โมเดล (AI agents), และการจัดเก็บข้อมูล

เทคโนโลยีคริปโตแบบกระจายศูนย์ไม่ได้เพิ่มประสิทธิภาพหรือลดต้นทุนในการฝึกอบรม AI โดยตรง แต่ช่วยอำนวยความสะดวกในการซื้อขายสินทรัพย์ ดึงดูดพลังการคำนวณที่ไม่ได้ใช้งานก่อนหน้านี้ ซึ่งมีกำไรในสภาพแวดล้อมที่ขาดแคลนการคำนวณในปัจจุบัน การโทเค็นโมเดลช่วยให้ชุมชนมีความเป็นเจ้าของหรือการใช้งานแบบกระจายศูนย์ ลดอุปสรรคและเสนอทางเลือกให้กับ AI แบบรวมศูนย์ อย่างไรก็ตาม ข้อมูลแบบกระจายศูนย์ยังคงเป็นเรื่องยากที่จะโทเค็น ต้องการการสำรวจเพิ่มเติม

แม้ว่าตลาดยังไม่ได้บรรลุข้อตกลงเกี่ยวกับ AI และคริปโต แต่ระบบนิเวศกำลังเป็นรูปเป็นร่าง นี่คือหมวดหมู่บางส่วนที่เราจะตรวจสอบในวันนี้: Infrastructure-as-a-Service Cloud, ตลาดการคำนวณ, การโทเค็นและการฝึกอบรมโมเดล, AI agents, การโทเค็นข้อมูล, ZKML, และการประยุกต์ใช้ AI

Infrastructure-as-a-Service Cloud

เมื่อตลาด AI เติบโตขึ้น โครงการคลาวด์คอมพิวติ้ง GPU และตลาดเป็นหนึ่งในกลุ่มแรกที่ได้รับประโยชน์ พวกเขามุ่งหวังที่จะรวมทรัพยากร GPU ที่ไม่ได้ใช้เข้าสู่เครือข่ายแบบรวมศูนย์ ลดต้นทุนการคำนวณเมื่อเทียบกับบริการแบบดั้งเดิม

บริการคลาวด์เหล่านี้ไม่ได้ถือว่าเป็นโซลูชันแบบกระจายศูนย์ แต่เป็นส่วนสำคัญของระบบนิเวศ web3 + AI แนวคิดคือว่า GPU เป็นทรัพยากรที่หายากและมีมูลค่าในตัวเอง

โครงการสำคัญ:

  • Akash Network: ตลาดคลาวด์คอมพิวติ้งแบบกระจายศูนย์ที่ใช้ Cosmos SDK ใช้ Kubernetes สำหรับการจัดการและการกำหนดราคาประมูลย้อนกลับเพื่อลดต้นทุน มุ่งเน้นไปที่การคำนวณ CPU และ GPU
  • Ritual: เครือข่ายโครงสร้างพื้นฐาน AI ที่รวมโมเดล AI เข้ากับโปรโตคอลบล็อกเชน แพลตฟอร์ม Infernet ของมันช่วยให้สัญญาอัจฉริยะสามารถเข้าถึงโมเดลได้โดยตรง
  • Render Network: แพลตฟอร์มการเรนเดอร์ GPU แบบกระจายศูนย์ที่มุ่งเน้นทั้งการเรนเดอร์และการคำนวณ AI ย้ายไปยัง Solana เพื่อประสิทธิภาพและต้นทุนที่ดีกว่า
  • NetMind.AI: ระบบนิเวศ AI ที่ให้ตลาดสำหรับทรัพยากรการคำนวณ, บริการแชทบอท, และผู้ช่วยชีวิต รองรับโมเดล GPU หลากหลายและรวม Google Colab
  • CUDOS: เครือข่ายคอมพิวเตอร์บล็อกเชนที่คล้ายกับ Akash มุ่งเน้นไปที่การคำนวณ GPU ผ่าน Cosmos SDK
  • Nuco.cloud: บริการคลาวด์คอมพิวติ้งแบบกระจายศูนย์ที่ใช้ Ethereum และ Telos เสนอทางออกหลากหลาย
  • Dynex: บล็อกเชนสำหรับการคำนวณแบบ neuromorphic ใช้ Proof-of-Useful-Work เพื่อประสิทธิภาพ
  • OctaSpace: คลาวด์คอมพิวติ้งแบบกระจายศูนย์ ดำเนินการบนบล็อกเชนของตัวเองสำหรับ AI และการประมวลผลภาพ
  • AIOZ Network: แพลตฟอร์มคอมพิวติ้งแบบกระจายศูนย์ Layer 1 สำหรับ AI, การจัดเก็บ, และการสตรีม
  • Phoenix: โครงสร้างพื้นฐานบล็อกเชน web3 สำหรับการคำนวณ AI และเครือข่ายที่ขับเคลื่อนด้วยข้อมูล
  • Aethir: โครงสร้างพื้นฐานคลาวด์สำหรับเกมและ AI ที่ใช้ Arbitrum
  • Iagon: ตลาดการจัดเก็บและคำนวณแบบกระจายศูนย์บน Cardano
  • OpFlow: แพลตฟอร์มคลาวด์ที่มุ่งเน้น AI และการเรนเดอร์ ใช้ NVIDIA GPUs
  • OpSec: แพลตฟอร์มคลาวด์แบบกระจายศูนย์ที่เกิดขึ้นใหม่ มุ่งสร้างซูเปอร์คอมพิวเตอร์รุ่นต่อไป

ตลาดทรัพยากรการคำนวณ

ตลาดทรัพยากรการคำนวณแบบกระจายศูนย์ใช้ทรัพยากร GPU และ CPU ที่ผู้ใช้ให้มาเพื่อทำงาน AI, การฝึกอบรม, และการอนุมาน ตลาดเหล่านี้ระดมพลังการคำนวณที่ไม่ได้ใช้ ให้รางวัลแก่ผู้เข้าร่วมในขณะที่ลดอุปสรรคในการเข้าสู่ตลาด

ตลาดการคำนวณ GPU เหล่านี้มักมุ่งเน้นไปที่การเล่าเรื่องของการกระจายศูนย์มากกว่าการใช้บริการ โครงการอย่าง io.net และ Nosana ที่ใช้ Solana และแนวคิด DePin แสดงศักยภาพการเติบโตอย่างมาก การลงทุนในตลาด GPU ในช่วงที่มีความต้องการสูงสามารถให้ผลตอบแทนสูงผ่านสิ่งจูงใจและ ROI

โครงการสำคัญ:

  • Cuckoo AI: ตลาดแบบกระจายศูนย์ที่ให้รางวัลแก่นักขุด GPU ที่ให้บริการโมเดล AI ด้วยการจ่ายเงิน ERC20 รายวัน ใช้สัญญาอัจฉริยะบล็อกเชนและมุ่งเน้นที่ความโปร่งใส, ความเป็นส่วนตัว, และความยืดหยุ่น
  • Clore.ai: แพลตฟอร์มเช่า GPU ที่ใช้ PoW ผู้ใช้สามารถเช่า GPU สำหรับการฝึกอบรม AI, การเรนเดอร์, และงานขุด รางวัลผูกกับจำนวนโทเค็นที่ถือ
  • Nosana: ผู้ให้บริการคลาวด์คอมพิวติ้ง GPU แบบโอเพ่นซอร์สที่ใช้ Solana มุ่งเน้นไปที่การอนุมาน AI และกำลังพัฒนาตัวเชื่อมต่อสำหรับ PyTorch, HuggingFace, TensorFlow, และไลบรารีชุมชน
  • io.net: เครือข่ายคลาวด์คอมพิวติ้ง AI ที่ใช้เทคโนโลยีบล็อกเชน Solana เสนอทรัพยากร GPU ที่คุ้มค่า รองรับการอนุมานแบบแบทช์และการฝึกอบรมแบบขนาน
  • Gensyn: โปรโตคอล L1 สำหรับการฝึกอบรมโมเดล deep learning มุ่งปรับปรุงประสิทธิภาพการฝึกอบรมผ่านระบบกระจายที่เชื่อถือได้ มุ่งเน้นการลดต้นทุนการฝึกอบรมและเพิ่มการเข้าถึง
  • Nimble: ระบบนิเวศ AI แบบกระจายศูนย์ที่รวมข้อมูล, พลังการคำนวณ, และนักพัฒนา มุ่งทำให้การฝึกอบรม AI เข้าถึงได้มากขึ้นและมีกรอบการทำงานแบบกระจายศูนย์และประกอบได้
  • Morpheus AI: ตลาดการคำนวณแบบกระจายศูนย์ที่สร้างบน Arbitrum ช่วยให้ผู้ใช้สร้าง AI agents ที่โต้ตอบกับสัญญาอัจฉริยะ
  • Kuzco: คลัสเตอร์ GPU แบบกระจายสำหรับการอนุมาน LLM บน Solana เสนอการโฮสต์โมเดลในท้องถิ่นที่มีประสิทธิภาพและให้รางวัลแก่ผู้มีส่วนร่วมด้วยคะแนน KZO
  • Golem: ตลาดการคำนวณ CPU ที่ใช้ Ethereum ที่ขยายไปยัง GPU หนึ่งในเครือข่ายการคำนวณแบบ peer-to-peer ที่เก่าแก่ที่สุด
  • Node AI: ตลาดคลาวด์ GPU ที่เสนอการเช่า GPU ที่คุ้มค่าผ่าน EyePerformance
  • GPU.Net: เครือข่าย GPU แบบกระจายที่ให้โครงสร้างพื้นฐานสำหรับ AI สร้างสรรค์, Web3, และการเรนเดอร์กราฟิกระดับสูง
  • GamerHash: แพลตฟอร์มที่ใช้พลังการคำนวณที่เหลือของนักเล่นเกมสำหรับการขุดคริปโตในขณะที่แนะนำโมเดล play-to-earn สำหรับอุปกรณ์ระดับต่ำ
  • NodeSynapse: ตลาด GPU ที่เสนอ Web3 infrastructure, การคำนวณ GPU, การโฮสต์เซิร์ฟเวอร์, และโมเดลการแบ่งปันรายได้ที่ไม่เหมือนใครสำหรับผู้ถือโทเค็น

การโทเค็นและการฝึกอบรมโมเดล

การโทเค็นและการฝึกอบรมโมเดลเกี่ยวข้องกับการแปลงโมเดล AI ให้เป็นสินทรัพย์ที่มีค่าและการรวมเข้ากับเครือข่ายบล็อกเชน วิธีการนี้ช่วยให้มีความเป็นเจ้าของแบบกระจายศูนย์, การแบ่งปันข้อมูล, และการตัดสินใจ มันสัญญาว่าจะปรับปรุงความโปร่งใส, ความปลอดภัย, และโอกาสในการสร้างรายได้ในขณะที่สร้างช่องทางการลงทุนใหม่

ปัจจัยสำคัญคือการรับรู้โครงการที่มีนวัตกรรมจริงและความท้าทายทางเทคนิค การซื้อขายความเป็นเจ้าของหรือสิทธิ์การใช้งานของโมเดล AI ไม่ใช่นวัตกรรมที่แท้จริง ความก้าวหน้าที่แท้จริงมาจากการตรวจสอบผลลัพธ์ของโมเดลอย่างมีประสิทธิภาพและการรับรองการดำเนินงานของโมเดลที่ปลอดภัยและกระจายศูนย์

โครงการสำคัญ:

  • SaharaLabs: มุ่งเน้นที่ความเป็นส่วนตัวและการแบ่งปันข้อมูลด้วยเครื่องมืออย่าง Knowledge Agent และ Data Marketplace ช่วยรักษาความปลอดภัยการดำเนินงานข้อมูลและดึงดูดลูกค้าเช่น MIT และ Microsoft
  • Bittensor: สร้างโปรโตคอลแบบกระจายสำหรับโมเดล AI เพื่อแลกเปลี่ยนมูลค่า ใช้ validators และ miners เพื่อจัดอันดับการตอบสนองและปรับปรุงคุณภาพโดยรวมของแอปพลิเคชันที่ขับเคลื่อนด้วย AI
  • iExec RLC: แพลตฟอร์มคลาวด์คอมพิวติ้งแบบกระจายที่รับรองความปลอดภัยของทรัพยากรผ่านฉันทามติ Proof-of-Contribution ในขณะที่จัดการงานคำนวณระยะสั้น
  • Allora: ให้รางวัล AI agents สำหรับการทำนายตลาดที่แม่นยำ ใช้กลไกฉันทามติเพื่อตรวจสอบการคาดการณ์ของเอเจนต์ในเครือข่ายแบบกระจายศูนย์
  • lPAAL AI: ให้แพลตฟอร์มสำหรับสร้างโมเดล AI ส่วนบุคคลที่สามารถจัดการข่าวกรองตลาด, กลยุทธ์การซื้อขาย, และงานมืออาชีพอื่น ๆ
  • MyShell: เสนอแพลตฟอร์ม AI ที่ยืดหยุ่นสำหรับการพัฒนาแชทบอทและการรวมโมเดลของบุคคลที่สาม ให้แรงจูงใจนักพัฒนาด้วยโทเค็นเนทีฟ
  • Qubic: ใช้ฉันทามติ proof-of-work สำหรับการฝึกอบรม AI โดยมีชั้นซอฟต์แวร์ Aigarth ช่วยในการสร้างเครือข่ายประสาท

AI Agent

AI agents หรือเอเจนต์อัจฉริยะ เป็นหน่วยงานที่สามารถเข้าใจ, จดจำ, ตัดสินใจ, ใช้เครื่องมือ, และทำงานที่ซับซ้อนได้อย่างอิสระ เอเจนต์เหล่านี้ไม่เพียงแต่แนะนำผู้ใช้เกี่ยวกับ "วิธีการ" ทำงาน แต่ยังช่วยในการทำงานให้สำเร็จด้วย โดยเฉพาะอย่างยิ่งหมายถึง AI agents ที่โต้ตอบกับเทคโนโลยีบล็อกเชนสำหรับกิจกรรมเช่นการซื้อขาย, การให้คำแนะนำการลงทุน, การดำเนินงานบอท, การปรับปรุงฟังก์ชันการเงินแบบกระจายศูนย์ (DeFi), และการวิเคราะห์ข้อมูลบนเชน

AI agents เหล่านี้ถูกรวมเข้ากับเทคโนโลยีบล็อกเชนอย่างใกล้ชิด ทำให้พวกเขาสามารถสร้างรายได้โดยตรง, แนะนำสถานการณ์การซื้อขายใหม่, และปรับปรุงประสบการณ์ผู้ใช้บล็อกเชน การรวมนี้แสดงถึงการเล่าเรื่องขั้นสูงใน DeFi สร้างผลกำไรผ่านกิจกรรมการซื้อขาย, ดึงดูดการลงทุนทุน, และสร้างกระแสความนิยม ซึ่งในทางกลับกันขับเคลื่อนวงจรการลงทุนแบบ Ponzi

โครงการสำคัญ:

  • Morpheus: ตลาดการคำนวณ AI แบบกระจายศูนย์ที่สร้างบน Arbitrum ที่ช่วยให้การสร้าง AI agents ที่ดำเนินการสัญญาอัจฉริยะ โครงการนำโดย David Johnston ผู้มีประสบการณ์ในด้านการลงทุนและการเป็นผู้นำระดับสูง Morpheus มุ่งเน้นการมีส่วนร่วมของชุมชนด้วยการเปิดตัวที่ยุติธรรม, โค้ด staking ที่ตรวจสอบความปลอดภัย, และการพัฒนาอย่างต่อเนื่อง แม้ว่าการอัปเดตโค้ด AI agent จะช้าและความคืบหน้าของโมดูลหลักยังไม่ชัดเจน
  • QnA3.AI: ให้บริการที่ครอบคลุมสำหรับการจัดการข้อมูล, การจัดการสินทรัพย์, และการจัดการสิทธิ์ตลอดวงจรชีวิตของพวกเขา โดยใช้เทคโนโลยี Retrieval-Augmented Generation (RAG) QnA3 ช่วยเพิ่มการเรียกคืนและการสร้างข้อมูล โครงการเติบโตอย่างรวดเร็วตั้งแต่เริ่มต้นในปี 2023 โดยมีการเพิ่มขึ้นอย่างมีนัยสำคัญในการมีส่วนร่วมของผู้ใช้และการใช้งาน
  • Autonolas: ตลาดเปิดสำหรับการสร้างและการใช้ AI agents แบบกระจายศูนย์ เสนอโ

ครงมือสำหรับนักพัฒนาในการสร้าง AI agents ที่สามารถเชื่อมต่อกับบล็อกเชนหลายตัว นำโดย David Minarsch นักเศรษฐศาสตร์ที่ได้รับการศึกษาจาก Cambridge ที่เชี่ยวชาญในบริการหลายเอเจนต์

  • SingularityNET: เครือข่ายบริการ AI แบบกระจายและเปิดที่มุ่งเน้นการทำให้ AI ทั่วไปเป็นประชาธิปไตยและกระจาย เครือข่ายอนุญาตให้นักพัฒนาสร้างรายได้จากบริการ AI ของพวกเขาโดยใช้โทเค็น AGIX เนทีฟ ก่อตั้งโดย Dr. Ben Goertzel และ Dr. David Hanson ที่รู้จักกันดีในผลงานของพวกเขาบนหุ่นยนต์ฮิวแมนนอยด์ Sophia
  • Fetch.AI: หนึ่งในโปรโตคอล AI agent ที่เก่าแก่ที่สุดที่ได้พัฒนาระบบนิเวศสำหรับการปรับใช้เอเจนต์โดยใช้โทเค็น FET ทีมประกอบด้วยผู้เชี่ยวชาญจากมหาวิทยาลัยที่มีชื่อเสียงและบริษัทชั้นนำ มุ่งเน้นไปที่ AI และโซลูชันอัลกอริธึม
  • Humans.ai: แพลตฟอร์มบล็อกเชน AI ที่รวบรวมผู้มีส่วนได้ส่วนเสียที่เกี่ยวข้องในการสร้าง AI ภายในชุดสตูดิโอสร้างสรรค์ อนุญาตให้บุคคลสร้างและเป็นเจ้าของลักษณะดิจิทัลของพวกเขาสำหรับการสร้างสินทรัพย์ดิจิทัล
  • Metatrust: เครือข่าย AI agent ที่เปิดใช้งานคริปโตที่เสนอวิธีแก้ปัญหาความปลอดภัย Web3 ที่ครอบคลุมครอบคลุมวงจรชีวิตการพัฒนาซอฟต์แวร์ทั้งหมด ก่อตั้งโดยทีมวิจัยที่ได้รับการยอมรับทั่วโลกจากมหาวิทยาลัยเทคโนโลยีนันยาง
  • AgentLayer: พัฒนาโดยทีม Metatrust เครือข่ายเอเจนต์แบบกระจายนี้ใช้ OP Stack และ EigenDA เพื่อเพิ่มประสิทธิภาพข้อมูลและประสิทธิภาพและความปลอดภัยโดยรวม
  • DAIN: สร้างเศรษฐกิจเอเจนต์ต่อเอเจนต์บน Solana มุ่งเน้นการเปิดใช้งานการโต้ตอบที่ราบรื่นระหว่างเอเจนต์จากองค์กรต่าง ๆ ผ่าน API สากล เน้นการรวมเข้ากับผลิตภัณฑ์ web2 และ web3
  • ChainGPT: โมเดล AI ที่ออกแบบมาสำหรับบล็อกเชนและคริปโต มีผลิตภัณฑ์เช่นเครื่องสร้าง AI NFT, เครื่องสร้างข่าวที่ขับเคลื่อนด้วย AI, ผู้ช่วยการซื้อขาย, เครื่องสร้างสัญญาอัจฉริยะ, และผู้ตรวจสอบ ChainGPT ชนะรางวัล BNB Ecosystem Catalyst Award ในเดือนกันยายน 2023

การโทเค็นข้อมูล

การบรรจบกันของ AI และการเข้ารหัสในภาคข้อมูลมีศักยภาพอย่างมาก เนื่องจากข้อมูลและพลังการคำนวณเป็นทรัพยากรพื้นฐานสำหรับ AI แม้ว่าการคำนวณแบบกระจายศูนย์บางครั้งอาจลดประสิทธิภาพ แต่การกระจายศูนย์ข้อมูลเป็นเรื่องที่สมเหตุสมผลเพราะการผลิตข้อมูลเป็นการกระจายศูนย์โดยธรรมชาติ ดังนั้นการรวม AI และบล็อกเชนในภาคข้อมูลจึงมีศักยภาพการเติบโตอย่างมาก

ความท้าทายสำคัญในด้านนี้คือการขาดตลาดข้อมูลที่เติบโตเต็มที่ ทำให้การประเมินค่าและการมาตรฐานข้อมูลมีความยากลำบาก โดยไม่มีกลไกการประเมินค่าที่เชื่อถือได้ โครงการต่าง ๆ ต้องดิ้นรนเพื่อดึงดูดทุนผ่านสิ่งจูงใจโทเค็น ซึ่งอาจทำลาย "ผลกระทบ flywheel" แม้กระทั่งสำหรับโครงการที่มีศักยภาพสูง

โครงการสำคัญ:

  • Synesis One: แพลตฟอร์ม crowdsourcing บน Solana ที่ผู้ใช้ได้รับโทเค็นโดยการทำ micro-tasks สำหรับการฝึกอบรม AI ร่วมมือกับ Mind AI แพลตฟอร์มรองรับข้อมูลหลากหลายประเภทและการทำงานอัตโนมัติของกระบวนการหุ่นยนต์ Mind AI มีข้อตกลงกับ GM และรัฐบาลอินเดีย ระดมทุน 9.5 ล้านดอลลาร์
  • Grass.io: ตลาดแบนด์วิดท์แบบกระจายศูนย์ที่ช่วยให้ผู้ใช้ขายแบนด์วิดท์ส่วนเกินให้กับบริษัท AI ด้วยที่อยู่ IP กว่า 2 ล้านที่อยู่ เฉพาะผู้ใช้ที่ใช้งานอยู่เท่านั้นที่ได้รับรางวัล พวกเขาระดมทุน 3.5 ล้านดอลลาร์ในการระดมทุนเมล็ดพันธุ์ที่นำโดย Polychain และ Tribe Capital
  • GagaNode: ตลาดแบนด์วิดท์แบบกระจายศูนย์รุ่นต่อไปที่แก้ไขปัญหาการขาดแคลน IPv4 โดยใช้เทคโนโลยี Web 3.0 เข้ากันได้กับหลายแพลตฟอร์มรวมถึงมือถือและโค้ดเป็นโอเพ่นซอร์ส
  • Ocean Protocol: อนุญาตให้ผู้ใช้โทเค็นและซื้อขายข้อมูลของพวกเขาบน Ocean Market สร้างข้อมูล NFTs และโทเค็นข้อมูล ผู้ก่อตั้ง Bruce Pon อดีตพนักงาน Mercedes-Benz เป็นวิทยากรเกี่ยวกับเทคโนโลยีบล็อกเชนและการกระจายศูนย์ สนับสนุนโดยทีมที่ปรึกษาระดับโลก

การประยุกต์ใช้ AI

การรวมความสามารถของ AI กับธุรกิจคริปโตในปัจจุบันเปิดโอกาสใหม่ ๆ ในการเพิ่มประสิทธิภาพและฟังก์ชันการทำงานในภาคส่วนต่าง ๆ เช่น DeFi, เกม, NFTs, การศึกษา, และการจัดการระบบ

DeFi

  • inSure DeFi: โปรโตคอลประกันภัยแบบกระจายศูนย์ที่ผู้ใช้ซื้อโทเค็น SURE เพื่อประกันทรัพย์สินคริปโตของพวกเขา ใช้ Chainlink สำหรับการกำหนดราคาที่เปลี่ยนแปลงได้
  • Hera Finance: ตัวรวม DEX ข้ามเชนที่ขับเคลื่อนด้วย AI รวมเข้ากับหลายเชน เช่น Ethereum, BNB, และ Arbitrum
  • SingularityDAO: โปรโตคอล DeFi ที่ขับเคลื่อนด้วย AI ที่ให้การจัดการการลงทุน ร่วมมือกับ SingularityNET พวกเขาได้รับเงิน 25 ล้านดอลลาร์เพื่อขยายเครื่องมือ AI และระบบนิเวศของพวกเขา
  • Arc: เสนอระบบนิเวศ DeFi ที่ขับเคลื่อนด้วย AI ผ่าน Reactor และ DApp เข้าซื้อกิจการ Lychee AI เข้าร่วมโปรแกรม AI Startup ของ Google Cloud และปล่อย ARC Swaps ที่ขับเคลื่อนด้วย AI
  • AQTIS: โปรโตคอลสภาพคล่องที่ได้รับการสนับสนุนจาก AI ที่มุ่งสร้างระบบนิเวศที่ยั่งยืนด้วย $AQTIS คล้ายกับแก๊สบน Ethereum
  • Jarvis Network: ใช้อัลกอริธึม AI เพื่อเพิ่มประสิทธิภาพกลยุทธ์การซื้อขายสำหรับคริปโตและสินทรัพย์อื่น ๆ โทเค็นเนทีฟ JRT ของพวกเขาหมุนเวียนอย่างแข็งขัน
  • LeverFi: โปรโตคอลการซื้อขายที่มีการยกระดับที่กำลังพัฒนาวิธีแก้ปัญหา DeFi ที่ขับเคลื่อนด้วย AI ร่วมกับ Microsoft ได้รับเงิน 2 ล้านดอลลาร์จาก DWF Labs สำหรับการจัดการการลงทุน AI
  • Mozaic: โปรโตคอลการทำฟาร์มอัตโนมัติที่ผสมผสานแนวคิด AI และเทคโนโลยี LayerZero

เกม

  • Sleepless AI: ใช้บล็อกเชน AI สำหรับเกมเพื่อนเสมือน เกมแรก HIM มีตัวละคร SBT ที่ไม่ซ้ำกันบนเชน Binance เปิดตัวโทเค็นของ Sleepless AI ผ่าน Launchpool
  • Phantasma: บล็อกเชน layer 1 ที่มุ่งเน้นเกมที่เสนอ smartNFTs และตัวเข้ารหัสสัญญาอัจฉริยะ AI
  • Delysium: ผู้จัดพิมพ์เกม Web3 ที่ขับเคลื่อนด้วย AI ที่มีกรอบโลกเปิด พวกเขาเสนอ Lucy, ระบบปฏิบัติการ Web3 ที่ขับเคลื่อนด้วย AI และเปิดใช้งานการสร้าง AI-Twins สำหรับการเล่นเกมแบบโต้ตอบ
  • Mars4.me: โครงการเมตาเวิร์ส 3D แบบโต้ตอบที่ได้รับการสนับสนุนจากข้อมูล NASA ได้รับการสนับสนุนระยะยาวจาก DWF Labs
  • GamerHash: ใช้พลังการคำนวณที่เหลือในระหว่างการเล่นเกมระดับสูงสำหรับการขุดคริปโต ฟีเจอร์ Play&Earn ของพวกเขาให้ภารกิจสำหรับคอมพิวเตอร์ที่มีสเปคต่ำกว่า
  • Gaimin: ก่อตั้งโดยทีม eSports มันรวมคลาวด์คอมพิวติ้งกับเกมเพื่อสร้าง dApp ที่ให้รางวัล GPU เพิ่มเติม
  • Cerebrum Tech: ผู้ให้บริการโซลูชัน AI สร้างสรรค์, เกม, และ Web3 เพิ่งระดมทุน 1.8 ล้านดอลลาร์สำหรับการขยายเกมและ AI
  • Ultiverse: แพลตฟอร์มเกมเมตาเวิร์สที่ระดมทุนจาก Binance Labs เพื่อเปิดตัวโปรโตคอลเมตาเวิร์สแบบเปิดที่ขับเคลื่อนด้วย AI, Bodhi

NFT

  • NFPrompt: แพลตฟอร์มที่ขับเคลื่อนด้วย AI ที่ผู้ใช้สามารถสร้างศิลปะ NFT Binance's Launchpool สนับสนุนการ staking NFP เพื่อรับรางวัล
  • Vertex Labs: ผู้ให้บริการโครงสร้างพื้นฐาน Web3 และ AI ที่มีบล็อกเชน, การคำนวณ AI, และแบรนด์ Web3 เช่น Hape Prime

การศึกษา

  • Hooked Protocol: เสนอเกมการศึกษาทางสังคมและมี Hooked Academy เครื่องมือการศึกษาที่ขับเคลื่อนด้วย AI ที่ได้รับการสนับสนุนจาก ChatGPT

ระบบ

  • Terminus OS: ระบบปฏิบัติการ Web3 ที่ใช้สถาปัตยกรรม blockchain-edge-client ออกแบบมาสำหรับยุค AI proof of intelligence ByteTrade ได้รับเงินทุน 50 ล้านดอลลาร์สำหรับการพัฒนา

บทสรุป

การผสมผสานของ AI และคริปโตกำลังเปิดโอกาสใหม่ ๆ ที่น่าทึ่งในภาคส่วนต่าง ๆ ตั้งแต่คลาวด์คอมพิวติ้งและการประยุกต์ใช้ AI ไปจนถึงการโทเค็นข้อมูลและการเรียนรู้เครื่องแบบ zero-knowledge การรวมกันของเทคโนโลยีเหล่านี้กำลังแสดงให้เห็นถึงพลังการเปลี่ยนแปลงของมันแล้ว ด้วยโครงการนวัตกรรมที่มากขึ้นบนขอบฟ้า อนาคตของ AI และคริปโตจะมีความหลากหลาย, ฉลาด, และปลอดภัย

เรากระตือรือร้นที่จะเห็นความร่วมมือใหม่ ๆ และเทคโนโลยีล้ำสมัยที่จะขยายขอบเขตของ AI และบล็อกเชนเข้าสู่การประยุกต์ใช้ที่กว้างขึ้น