ข้ามไปยังเนื้อหาหลัก

โพสต์หนึ่งโพสต์ แท็กด้วย "AI"

ดูแท็กทั้งหมด

ความคิดเห็นของผู้ใช้ Reddit เกี่ยวกับเครื่องมือแชท LLM หลัก

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

ภาพรวม: รายงานนี้วิเคราะห์การสนทนาใน Reddit เกี่ยวกับเครื่องมือแชท AI ยอดนิยมสี่ตัว ได้แก่ ChatGPT ของ OpenAI, Claude ของ Anthropic, Gemini ของ Google (Bard) และ open-source LLMs (เช่น โมเดลที่ใช้ LLaMA) โดยสรุปปัญหาที่ผู้ใช้รายงานบ่อย ๆ ฟีเจอร์ที่ร้องขอบ่อย ๆ ความต้องการที่ยังไม่ได้รับการตอบสนอง หรือกลุ่มผู้ใช้ที่รู้สึกว่าไม่ได้รับการตอบสนอง และความแตกต่างในการรับรู้ระหว่างนักพัฒนา ผู้ใช้ทั่วไป และผู้ใช้ธุรกิจ ตัวอย่างเฉพาะและคำพูดจากกระทู้ Reddit ถูกนำมาใช้เพื่อแสดงให้เห็นถึงประเด็นเหล่านี้

ความคิดเห็นของผู้ใช้ Reddit เกี่ยวกับเครื่องมือแชท LLM หลัก

ChatGPT (OpenAI)

ปัญหาและข้อจำกัดทั่วไป

  • หน่วยความจำบริบทที่จำกัด: ข้อร้องเรียนอันดับต้น ๆ คือความสามารถของ ChatGPT ในการจัดการกับการสนทนาที่ยาวหรือเอกสารขนาดใหญ่โดยไม่ลืมรายละเอียดก่อนหน้า ผู้ใช้มักจะเจอขีดจำกัดความยาวบริบท (ไม่กี่พันโทเค็น) และต้องตัดหรือสรุปข้อมูล ผู้ใช้คนหนึ่งกล่าวว่า “การเพิ่มขนาดหน้าต่างบริบทจะเป็นการปรับปรุงที่ใหญ่ที่สุด... นั่นคือขีดจำกัดที่ฉันเจอบ่อยที่สุด” เมื่อเกินบริบท ChatGPT จะลืมคำแนะนำหรือเนื้อหาเริ่มต้น ทำให้คุณภาพลดลงกลางเซสชัน

  • ขีดจำกัดข้อความสำหรับ GPT-4: ผู้ใช้ ChatGPT Plus บ่นเกี่ยวกับขีดจำกัด 25 ข้อความ/3 ชั่วโมงในการใช้ GPT-4 (ขีดจำกัดที่มีในปี 2023) การเจอขีดจำกัดนี้ทำให้พวกเขาต้องรอ ขัดจังหวะการทำงาน ผู้ใช้หนัก ๆ พบว่าการจำกัดนี้เป็นปัญหาใหญ่

  • ตัวกรองเนื้อหาที่เข้มงวด (“nerfs”): ผู้ใช้ Reddit หลายคนรู้สึกว่า ChatGPT มีข้อจำกัดมากเกินไป มักปฏิเสธคำขอที่เวอร์ชันก่อนหน้านี้จัดการได้ โพสต์ที่ได้รับการโหวตสูงบ่นว่า “แทบทุกอย่างที่คุณถามมันในทุกวันนี้จะได้รับคำตอบว่า ‘ขอโทษ ไม่สามารถช่วยได้’... มันกลายเป็นเครื่องมือที่มีประโยชน์ที่สุดไปเป็นเทียบเท่ากับ Google Assistant ได้อย่างไร?” ผู้ใช้ยกตัวอย่างเช่น ChatGPT ปฏิเสธที่จะจัดรูปแบบใหม่ ข้อความของตัวเอง (เช่น ข้อมูลเข้าสู่ระบบ) เนื่องจากการใช้งานที่ผิดพลาดที่เป็นไปได้ ผู้สมัครสมาชิกที่จ่ายเงินโต้แย้งว่า “แนวคิดที่คลุมเครือว่าผู้ใช้อาจทำสิ่ง 'ไม่ดี'... ไม่ควรเป็นเหตุผลในการไม่แสดงผลลัพธ์” เนื่องจากพวกเขาต้องการผลลัพธ์ของโมเดลและจะใช้อย่างรับผิดชอบ

  • ภาพหลอนและข้อผิดพลาด: แม้จะมีความสามารถขั้นสูง แต่ ChatGPT สามารถสร้างข้อมูลที่ไม่ถูกต้องหรือแต่งขึ้นด้วยความมั่นใจ ผู้ใช้บางคนสังเกตเห็นว่าสิ่งนี้แย่ลงเมื่อเวลาผ่านไป สงสัยว่าโมเดลถูก “ทำให้โง่ลง” ตัวอย่างเช่น ผู้ใช้ในด้านการเงินกล่าวว่า ChatGPT เคยคำนวณเมตริกเช่น NPV หรือ IRR ได้อย่างถูกต้อง แต่หลังจากการอัปเดต “ฉันได้รับคำตอบที่ผิดมากมาย... มันยังคงให้คำตอบที่ผิด [แม้หลังจากการแก้ไข] ฉันเชื่อจริง ๆ ว่ามันโง่ลงมากตั้งแต่มีการเปลี่ยนแปลง” ความไม่ถูกต้องที่คาดเดาไม่ได้เช่นนี้ทำให้ความไว้วางใจลดลงสำหรับงานที่ต้องการความแม่นยำของข้อเท็จจริง

  • ผลลัพธ์โค้ดที่ไม่สมบูรณ์: นักพัฒนามักใช้ ChatGPT เพื่อขอความช่วยเหลือเกี่ยวกับการเขียนโค้ด แต่พวกเขารายงานว่าบางครั้งมันละเว้นส่วนของโซลูชันหรือย่อโค้ดยาว ๆ ผู้ใช้คนหนึ่งแชร์ว่า ChatGPT ตอนนี้ “ละเว้นโค้ด ผลิตโค้ดที่ไม่มีประโยชน์ และแย่ในสิ่งที่ฉันต้องการให้มันทำ... มันมักละเว้นโค้ดมากจนฉันไม่รู้ด้วยซ้ำว่าจะรวมโซลูชันของมันอย่างไร” สิ่งนี้บังคับให้ผู้ใช้ต้องถามคำถามติดตามเพื่อดึงส่วนที่เหลือออกมา หรือเย็บคำตอบเข้าด้วยกันด้วยตนเอง ซึ่งเป็นกระบวนการที่น่าเบื่อ

  • ข้อกังวลเกี่ยวกับประสิทธิภาพและเวลาใช้งาน: มีการรับรู้ว่า ประสิทธิภาพของ ChatGPT สำหรับผู้ใช้รายบุคคลลดลงเมื่อการใช้งานขององค์กรเพิ่มขึ้น “ฉันคิดว่าพวกเขากำลังจัดสรรแบนด์วิดท์และพลังการประมวลผลให้กับธุรกิจและดึงมันออกจากผู้ใช้ ซึ่งเป็นสิ่งที่ทนไม่ได้เมื่อพิจารณาจากค่าใช้จ่ายในการสมัครสมาชิก!” ผู้ใช้ Plus ที่หงุดหงิดคนหนึ่งกล่าว การหยุดทำงานหรือการช้าลงในช่วงเวลาที่มีการใช้งานสูงสุดได้รับการบันทึกไว้โดยบังเอิญ ซึ่งอาจขัดขวางการทำงาน

ฟีเจอร์หรือการปรับปรุงที่ร้องขอบ่อย

  • หน้าต่างบริบท / หน่วยความจำที่ยาวขึ้น: การปรับปรุงที่ร้องขอมากที่สุดคือความยาวบริบทที่ใหญ่ขึ้น ผู้ใช้ต้องการมีการสนทนาที่ยาวขึ้นมากหรือป้อนเอกสารขนาดใหญ่โดยไม่ต้องรีเซ็ต หลายคนแนะนำให้ขยายบริบทของ ChatGPT ให้ตรงกับความสามารถของ GPT-4 ที่มี 32K โทเค็น (ปัจจุบันมีให้ใช้งานผ่าน API) หรือมากกว่านั้น ตามที่ผู้ใช้คนหนึ่งกล่าวไว้ว่า “GPT ดีที่สุดเมื่อมีบริบท และเมื่อมันจำบริบทเริ่มต้นไม่ได้ ฉันก็หงุดหงิด... ถ้าข่าวลือเป็นจริงเกี่ยวกับ PDF บริบท นั่นจะแก้ปัญหาของฉันได้แทบทั้งหมด” มีความต้องการสูงสำหรับฟีเจอร์ในการอัปโหลดเอกสารหรือเชื่อมโยงข้อมูลส่วนบุคคลเพื่อให้ ChatGPT สามารถจดจำและอ้างอิงได้ตลอดเซสชัน

  • การจัดการไฟล์และการรวมระบบ: ผู้ใช้มักจะขอวิธีที่ง่ายกว่าในการป้อนไฟล์หรือข้อมูลเข้า ChatGPT ในการสนทนา ผู้คนพูดถึงการต้องการ “คัดลอกและวาง Google Drive ของฉันและให้มันทำงาน” หรือมีปลั๊กอินที่ให้ ChatGPT ดึงบริบทจากไฟล์ส่วนตัวได้โดยตรง บางคนได้ลองใช้วิธีแก้ปัญหา (เช่น ปลั๊กอินอ่าน PDF หรือการเชื่อมโยง Google Docs) แต่บ่นเกี่ยวกับข้อผิดพลาดและขีดจำกัด ผู้ใช้คนหนึ่งอธิบายปลั๊กอินในอุดมคติของพวกเขาว่าเป็นปลั๊กอินที่ “ทำงานเหมือน Link Reader แต่สำหรับไฟล์ส่วนตัว... เลือกส่วนใดของไดรฟ์ของฉันที่จะใช้ในการสนทนา... นั่นจะแก้ปัญหาทุกอย่างที่ฉันมีกับ GPT-4 ในปัจจุบัน” สรุปคือ การสนับสนุนเนื้อหาภายนอกที่ดีกว่า (นอกเหนือจากข้อมูลการฝึกอบรม) เป็นคำขอที่ได้รับความนิยม

  • การลดการจำกัดสำหรับผู้ใช้ที่ชำระเงิน: เนื่องจากผู้ใช้ Plus จำนวนมากเจอขีดจำกัดข้อความของ GPT-4 พวกเขาจึงเรียกร้องขีดจำกัดที่สูงขึ้นหรือทางเลือกในการจ่ายเงินเพิ่มสำหรับการเข้าถึงไม่จำกัด ขีดจำกัด 25 ข้อความถูกมองว่าเป็นการจำกัดโดยพลการและขัดขวางการใช้งานอย่างเข้มข้น ผู้คนต้องการโมเดลที่ใช้ตามการใช้งานหรือขีดจำกัดที่สูงขึ้นเพื่อให้เซสชันการแก้ปัญหาที่ยาวนานไม่ถูกตัดขาด

  • โหมดการกลั่นกรองเนื้อหาที่ “ไม่เซ็นเซอร์” หรือกำหนดเอง: ผู้ใช้บางกลุ่มต้องการความสามารถในการสลับความเข้มงวดของตัวกรองเนื้อหา โดยเฉพาะอย่างยิ่งเมื่อใช้ ChatGPT สำหรับตัวเอง (ไม่ใช่เนื้อหาที่เผยแพร่สู่สาธารณะ) พวกเขารู้สึกว่าโหมด “การวิจัย” หรือ “ไม่เซ็นเซอร์” – ที่มีคำเตือนแต่ไม่ปฏิเสธอย่างหนัก – จะช่วยให้พวกเขาสำรวจได้อย่างอิสระมากขึ้น ตามที่ผู้ใช้คนหนึ่งกล่าวไว้ว่า ลูกค้าที่จ่ายเงินมองว่าเป็นเครื่องมือและเชื่อว่า “ฉันจ่ายเงินสำหรับ [มัน]” พวกเขาต้องการตัวเลือกในการรับคำตอบแม้ในคำถามที่อยู่ในขอบเขต ในขณะที่ OpenAI ต้องสร้างสมดุลระหว่างความปลอดภัย ผู้ใช้เหล่านี้แนะนำให้ใช้ธงหรือการตั้งค่าเพื่อผ่อนคลายนโยบายในการแชทส่วนตัว

  • ความแม่นยำของข้อเท็จจริงและการอัปเดตที่ดีขึ้น: ผู้ใช้มักขอความรู้ที่ทันสมัยและภาพหลอนน้อยลง ขีดจำกัดความรู้ของ ChatGPT (กันยายน 2021 ในเวอร์ชันก่อนหน้า) เป็นข้อจำกัดที่มักถูกหยิบยกขึ้นมาใน Reddit OpenAI ได้แนะนำการท่องเว็บและปลั๊กอิน ซึ่งผู้ใช้บางคนใช้ประโยชน์ แต่คนอื่น ๆ เพียงแค่ขอให้โมเดลพื้นฐานได้รับการอัปเดตบ่อยขึ้นด้วยข้อมูลใหม่ การลดข้อผิดพลาดที่ชัดเจน – โดยเฉพาะในโดเมนเช่นคณิตศาสตร์และการเขียนโค้ด – เป็นความปรารถนาที่ต่อเนื่อง นักพัฒนาบางคนให้ข้อเสนอแนะเมื่อ ChatGPT ทำผิดพลาดโดยหวังว่าจะมีการปรับปรุงโมเดล

  • ผลลัพธ์โค้ดและเครื่องมือที่ดีขึ้น: นักพัฒนามีคำขอฟีเจอร์ เช่น ตัวแปลโค้ดที่ได้รับการปรับปรุงซึ่งไม่ละเว้นเนื้อหา และการรวมเข้ากับ IDE หรือการควบคุมเวอร์ชัน (ปลั๊กอินตัวแปลโค้ดของ OpenAI – ปัจจุบันเป็นส่วนหนึ่งของ “การวิเคราะห์ข้อมูลขั้นสูง” – เป็นก้าวหนึ่งในทิศทางนี้และได้รับคำชม) อย่างไรก็ตาม ผู้ใช้มักขอการควบคุมที่ละเอียดกว่าในการสร้างโค้ด: เช่น ตัวเลือกในการส่งออกโค้ดที่สมบูรณ์ ไม่กรอง แม้ว่าจะยาว หรือกลไกในการแก้ไขโค้ดได้ง่ายหาก AI ทำผิดพลาด โดยพื้นฐานแล้วพวกเขาต้องการให้ ChatGPT ทำตัวเหมือนผู้ช่วยการเขียนโค้ดที่เชื่อถือได้มากขึ้นโดยไม่จำเป็นต้องมีหลายคำถามเพื่อปรับคำตอบ

  • โปรไฟล์ผู้ใช้หรือหน่วยความจำที่คงอยู่: การปรับปรุงอีกอย่างที่บางคนกล่าวถึงคือการให้ ChatGPT จดจำสิ่งต่าง ๆ เกี่ยวกับผู้ใช้ข้ามเซสชัน (ด้วยความยินยอม) ตัวอย่างเช่น การจดจำสไตล์การเขียนของตนเอง หรือว่าพวกเขาเป็นวิศวกรซอฟต์แวร์ โดยไม่ต้องระบุใหม่ทุกการแชทใหม่ สิ่งนี้สามารถผูกเข้ากับการปรับแต่ง API หรือฟีเจอร์ “โปรไฟล์” ผู้ใช้คัดลอกบริบทที่สำคัญไปยังการแชทใหม่ด้วยตนเองในขณะนี้ ดังนั้นหน่วยความจำในตัวสำหรับการตั้งค่าส่วนบุคคลจะช่วยประหยัดเวลา

ความต้องการหรือกลุ่มผู้ใช้ที่ยังไม่ได้รับการตอบสนอง

  • นักวิจัยและนักเรียนที่มีเอกสารยาว: ผู้ที่ต้องการให้ ChatGPT วิเคราะห์เอกสารวิจัย หนังสือ หรือชุดข้อมูลขนาดใหญ่รู้สึกว่าไม่ได้รับการตอบสนอง ขีดจำกัดปัจจุบันบังคับให้พวกเขาต้องตัดข้อความหรือยอมรับการสรุป กลุ่มนี้จะได้รับประโยชน์อย่างมากจากหน้าต่างบริบทที่ใหญ่ขึ้นหรือฟีเจอร์ในการจัดการเอกสารยาว (ตามที่เห็นได้จากโพสต์จำนวนมากเกี่ยวกับการพยายามหลีกเลี่ยงขีดจำกัดโทเค็น)

  • ผู้ใช้ที่ต้องการการเล่าเรื่องสร้างสรรค์หรือการเล่นบทบาทเกินขีดจำกัด: ในขณะที่ ChatGPT มักใช้สำหรับการเขียนเชิงสร้างสรรค์ นักเล่าเรื่องบางคนรู้สึกถูกจำกัดโดยโมเดลที่ลืมจุดพล็อตเริ่มต้นในเรื่องยาวหรือปฏิเสธเนื้อหาสำหรับผู้ใหญ่/สยองขวัญ พวกเขาหันไปใช้โมเดลทางเลือกหรือการแฮ็กเพื่อดำเนินการเล่าเรื่องต่อไป ผู้ใช้ที่มีความคิดสร้างสรรค์เหล่านี้จะได้รับการตอบสนองที่ดีกว่าด้วยเวอร์ชันของ ChatGPT ที่มีหน่วยความจำยาวขึ้นและมีความยืดหยุ่นมากขึ้นเกี่ยวกับความรุนแรงในนิยายหรือธีมสำหรับผู้ใหญ่ (ในขอบเขตที่เหมาะสม) ตามที่นักเขียนนิยายคนหนึ่งกล่าวไว้ว่า เมื่อ AI สูญเสียการติดตามเรื่องราว “ฉันต้องเตือนมันถึงรูปแบบหรือบริบทที่แน่นอน... ฉันรู้สึกหงุดหงิดที่มันยอดเยี่ยมเมื่อสองคำถามที่แล้ว แต่ตอนนี้ฉันต้องตาม AI ให้ทัน”

  • ผู้ใช้พลังงานและผู้เชี่ยวชาญด้านโดเมน: ผู้เชี่ยวชาญในสาขาเฉพาะทาง (การเงิน, วิศวกรรม, การแพทย์) บางครั้งพบว่าคำตอบของ ChatGPT ขาดความลึกหรือความแม่นยำในโดเมนของตน โดยเฉพาะอย่างยิ่งหากคำถามเกี่ยวข้องกับการพัฒนาล่าสุด ผู้ใช้เหล่านี้ต้องการความรู้จากผู้เชี่ยวชาญที่เชื่อถือได้มากขึ้น บางคนได้ลองปรับแต่งผ่าน API หรือ GPTs ที่กำหนดเอง ผู้ที่ไม่สามารถปรับแต่งได้จะชื่นชมเวอร์ชัน ChatGPT เฉพาะโดเมนหรือปลั๊กอินที่ฝังฐานข้อมูลที่เชื่อถือได้ ในรูปแบบเริ่มต้น ChatGPT อาจไม่ตอบสนองผู้ใช้ที่ต้องการข้อมูลเฉพาะด้านที่มีความแม่นยำสูง (พวกเขามักต้องตรวจสอบงานของมันอีกครั้ง)

  • ผู้ใช้ที่ต้องการเนื้อหาที่ไม่เซ็นเซอร์หรือกรณีขอบ: ผู้ใช้ส่วนน้อย (แฮ็กเกอร์ที่ทดสอบสถานการณ์ความปลอดภัย นักเขียนนิยายสุดขั้ว ฯลฯ) พบว่าข้อจำกัดเนื้อหาของ ChatGPT จำกัดเกินไปสำหรับความต้องการของพวกเขา ปัจจุบันพวกเขาไม่ได้รับการตอบสนองจากผลิตภัณฑ์อย่างเป็นทางการ (เนื่องจากหลีกเลี่ยงเนื้อหาบางประเภทโดยชัดแจ้ง) ผู้ใช้เหล่านี้มักทดลองใช้คำถามเจลเบรกหรือใช้โมเดลโอเพ่นซอร์สเพื่อให้ได้คำตอบที่ต้องการ นี่เป็นช่องว่างโดยเจตนาสำหรับ OpenAI (เพื่อรักษาความปลอดภัย) แต่หมายความว่าผู้ใช้ดังกล่าวมองหาที่อื่น

  • บุคคลและองค์กรที่ใส่ใจเรื่องความเป็นส่วนตัว: ผู้ใช้บางคน (โดยเฉพาะในองค์กร) ไม่สบายใจที่จะส่งข้อมูลที่ละเอียดอ่อนให้กับ ChatGPT เนื่องจากข้อกังวลด้านความเป็นส่วนตัว OpenAI มีนโยบายที่จะไม่ใช้ข้อมูล API เพื่อการฝึกอบรม แต่ UI เว็บของ ChatGPT ในอดีตไม่ได้ให้การรับประกันดังกล่าวจนกว่าจะมีฟีเจอร์ยกเลิกการเข้าร่วม บริษัทที่จัดการข้อมูลลับ (กฎหมาย การดูแลสุขภาพ ฯลฯ) มักรู้สึกว่าพวกเขาไม่สามารถใช้ประโยชน์จาก ChatGPT ได้อย่างเต็มที่ ทำให้ความต้องการของพวกเขาไม่ได้รับการตอบสนอง เว้นแต่พวกเขาจะสร้างโซลูชันที่โฮสต์เอง ตัวอย่างเช่น ผู้ใช้ Reddit รายหนึ่งกล่าวถึงบริษัทของตนที่เปลี่ยนไปใช้ LLM ในพื้นที่ด้วยเหตุผลด้านความเป็นส่วนตัว จนกว่าจะมีการใช้งาน ChatGPT ในสถานที่หรืออินสแตนซ์ส่วนตัว กลุ่มนี้ยังคงระมัดระวังหรือใช้ผู้ขายเฉพาะรายที่มีขนาดเล็กกว่า

ความแตกต่างในการรับรู้ตามประเภทผู้ใช้

  • นักพัฒนา/ผู้ใช้ทางเทคนิค: นักพัฒนามักจะเป็นทั้งผู้สนับสนุนที่ใหญ่ที่สุดและนักวิจารณ์ที่รุนแรงที่สุดของ ChatGPT พวกเขาชื่นชอบความสามารถในการอธิบายโค้ด สร้างโค้ดต้นแบบ และช่วยในการดีบัก อย่างไรก็ตาม พวกเขารู้สึกถึงข้อจำกัดในบริบทที่ยาวขึ้นและความแม่นยำของโค้ดอย่างมาก ตามที่นักพัฒนาคนหนึ่งบ่นว่า ChatGPT เริ่ม “ผลิตโค้ดที่ไม่มีประโยชน์” และละเว้นส่วนสำคัญ ซึ่ง “ทำให้ฉันโกรธ... ฉันไม่ต้องการบอกมันว่า ‘อย่าขี้เกียจ’ – ฉันแค่ต้องการผลลัพธ์ทั้งหมด” นักพัฒนามักสังเกตเห็นแม้กระทั่งการเปลี่ยนแปลงคุณภาพที่ละเอียดอ่อนหลังจากการอัปเดตโมเดลและได้แสดงความคิดเห็นอย่างมากใน Reddit เกี่ยวกับการรับรู้ “nerfs” หรือการลดลงของความสามารถในการเขียนโค้ด พวกเขายังผลักดันขีดจำกัด (สร้างคำถามที่ซับซ้อน เชื่อมโยงเครื่องมือ) ดังนั้นพวกเขาจึงต้องการฟีเจอร์เช่นบริบทที่ขยายออกไป ขีดจำกัดข้อความที่น้อยลง และการรวมเข้ากับเครื่องมือการเขียนโค้ดได้ดีขึ้น โดยสรุป นักพัฒนามองว่า ChatGPT เป็นเครื่องมือในการเร่งงานประจำ แต่พร้อมที่จะชี้ให้เห็นข้อผิดพลาดในตรรกะหรือโค้ด – พวกเขามองว่าเป็นผู้ช่วยระดับจูเนียร์ที่ยังต้องการการดูแล

  • ผู้ใช้ทั่วไป/ผู้ใช้ประจำวัน: ผู้ใช้ทั่วไปมากขึ้น – ผู้ที่ถามหาความรู้ทั่วไป คำแนะนำ หรือความสนุก – มักจะทึ่งในความสามารถของ ChatGPT แต่พวกเขาก็มีปัญหาของตัวเอง ความหงุดหงิดทั่วไปของผู้ใช้ทั่วไปคือเมื่อ ChatGPT ปฏิเสธคำขอที่ดูเหมือนไม่มีพิษภัยสำหรับพวกเขา (อาจเป็นเพราะกฎนโยบาย) ผู้โพสต์ต้นฉบับในกระทู้หนึ่งเป็นตัวอย่างของสิ่งนี้ โดย “โกรธมากเมื่อฉันเขียนคำถามที่มันไม่ควรมีปัญหาและตอนนี้มันปฏิเสธ” ผู้ใช้ทั่วไปอาจเจอขีดจำกัดความรู้ (พบว่า bot ไม่สามารถจัดการกับเหตุการณ์ปัจจุบันมาก ๆ ได้เว้นแต่จะอัปเดตอย่างชัดเจน) และบางครั้งสังเกตเห็นเมื่อ ChatGPT ให้คำตอบที่ผิดอย่างชัดเจน ไม่เหมือนนักพัฒนา พวกเขาอาจไม่ตรวจสอบ AI ซ้ำเสมอ ซึ่งอาจนำไปสู่ความผิดหวังหากพวกเขาดำเนินการตามความผิดพลาด ในด้านบวก ผู้ใช้ทั่วไปจำนวนมากพบว่าการตอบสนองที่รวดเร็วของ ChatGPT Plus และผลลัพธ์ที่ดีขึ้นของ GPT-4 คุ้มค่ากับ $20/เดือน – เว้นแต่ปัญหา “การปฏิเสธ” หรือข้อจำกัดอื่น ๆ จะทำให้ประสบการณ์เสีย พวกเขาต้องการผู้ช่วยที่มีประโยชน์สำหรับทุกวัตถุประสงค์และอาจรู้สึกหงุดหงิดเมื่อ ChatGPT ตอบกลับด้วยคำแถลงนโยบายหรือจำเป็นต้องมีคำถามที่ซับซ้อนเพื่อให้ได้คำตอบง่าย ๆ

  • ผู้ใช้ธุรกิจ/ผู้ใช้มืออาชีพ: ผู้ใช้ธุรกิจมักจะเข้าหา ChatGPT จากมุมมองของประสิทธิภาพและความน่าเชื่อถือ พวกเขาชื่นชมการร่างอีเมลอย่างรวดเร็ว สรุปเอกสาร หรือสร้างไอเดีย อย่างไรก็ตาม พวกเขากังวลเกี่ยวกับ ความปลอดภัยของข้อมูล ความสม่ำเสมอ และการรวมเข้ากับเวิร์กโฟลว์ ใน Reddit ผู้เชี่ยวชาญได้พูดคุยเกี่ยวกับการต้องการ ChatGPT ในเครื่องมือเช่น Outlook, Google Docs หรือเป็น API ในระบบภายในของพวกเขา บางคนสังเกตว่าเมื่อ OpenAI เปลี่ยนไปให้บริการลูกค้าองค์กร ดูเหมือนว่าจุดสนใจของผลิตภัณฑ์จะเปลี่ยนไป: มีความรู้สึกว่าประสบการณ์ของผู้ใช้ฟรีหรือรายบุคคลลดลงเล็กน้อย (เช่น ช้าลงหรือ “ฉลาดน้อยลง”) เมื่อบริษัทขยายขนาดเพื่อให้บริการลูกค้าที่ใหญ่ขึ้น ไม่ว่าจะจริงหรือไม่ มันเน้นการรับรู้: ผู้ใช้ธุรกิจต้องการความน่าเชื่อถือและบริการที่มีลำดับความสำคัญ และผู้ใช้รายบุคคลกังวลว่าตอนนี้พวกเขาเป็นชั้นสอง นอกจากนี้ ผู้เชี่ยวชาญต้องการผลลัพธ์ที่ถูกต้อง – คำตอบที่ฉูดฉาดแต่ผิดอาจแย่กว่าการไม่มีคำตอบ ดังนั้นกลุ่มนี้จึงมีความอ่อนไหวต่อความแม่นยำ สำหรับพวกเขา ฟีเจอร์เช่นบริบทที่ยาวขึ้น (สำหรับการอ่านสัญญา การวิเคราะห์ฐานโค้ด) และการรับประกันเวลาใช้งานเป็นสิ่งสำคัญ พวกเขามีแนวโน้มที่จะจ่ายเงินมากขึ้นสำหรับระดับการบริการระดับพรีเมียม หากข้อกำหนดด้านการปฏิบัติตามข้อกำหนดและความเป็นส่วนตัวของพวกเขาได้รับการตอบสนอง บางองค์กรถึงกับสำรวจการปรับใช้ในสถานที่หรือการใช้ API ของ OpenAI พร้อมกฎการจัดการข้อมูลที่เข้มงวดเพื่อตอบสนองนโยบาย IT ของพวกเขา


Claude (Anthropic)

ปัญหาและข้อจำกัดทั่วไป

  • ขีดจำกัดการใช้งานและข้อจำกัดการเข้าถึง: Claude ได้รับคำชมสำหรับการเสนอโมเดลที่ทรงพลัง (Claude 2) ฟรี แต่ผู้ใช้พบขีดจำกัดการใช้งานอย่างรวดเร็ว (โดยเฉพาะในระดับฟรี) หลังจากจำนวนคำถามหรือข้อความจำนวนมาก Claude อาจหยุดและพูดบางอย่างเช่น “ขอโทษ ฉันต้องจบบทสนทนานี้ชั่วคราว กรุณากลับมาใหม่ภายหลัง” การจำกัดนี้ทำให้ผู้ใช้ที่ปฏิบัติต่อ Claude เป็นคู่หูในการเขียนโค้ดหรือการเขียนที่ขยายออกไปหงุดหงิด แม้แต่ผู้ใช้ Claude Pro (ที่ชำระเงิน) ก็ “ไม่ได้รับการรับประกันเวลาที่ไม่จำกัด” ตามที่ผู้ใช้คนหนึ่งกล่าวไว้ การเจอโควต้ายังคงสร้างข้อความ “กลับมาใหม่ภายหลัง” นอกจากนี้ Claude ยังถูกจำกัดภูมิศาสตร์อย่างเป็นทางการเป็นเวลานาน (ในตอนแรกมีให้บริการเฉพาะในสหรัฐอเมริกา/สหราชอาณาจักร) ผู้ใช้ต่างประเทศใน Reddit ต้องใช้ VPN หรือแพลตฟอร์มของบุคคลที่สามเพื่อเข้าถึง ซึ่งเป็นความไม่สะดวก สิ่งนี้ทำให้ผู้ใช้ที่ไม่ใช่ชาวสหรัฐฯ หลายคนรู้สึกถูกทิ้งจนกว่าจะมีการขยายการเข้าถึง

  • แนวโน้มที่จะออกนอกเส้นทางด้วยอินพุตที่ใหญ่มาก: ฟีเจอร์พาดหัวของ Claude คือ หน้าต่างบริบท 100k โทเค็น ซึ่งอนุญาตให้มีคำถามที่ยาวมาก อย่างไรก็ตาม ผู้ใช้บางคนสังเกตว่าเมื่อคุณใส่โทเค็นหลายหมื่นเข้าไปใน Claude คำตอบของมันอาจกลายเป็นไม่โฟกัส “100k มีประโยชน์มาก แต่ถ้ามันไม่ทำตามคำแนะนำอย่างถูกต้องและออกนอกเส้นทาง มันก็ไม่ค่อยมีประโยชน์” ผู้ใช้คนหนึ่งกล่าว สิ่งนี้บ่งชี้ว่าในบริบทที่ใหญ่โต Claude อาจหลุดหรือเริ่มพูดเพ้อเจ้อ ต้องการคำถามที่ระมัดระวังเพื่อให้มันอยู่ในงาน เป็นข้อจำกัดที่เกิดจากการผลักดันบริบทไปสู่ขีดสุด – โมเดลยังคงรักษาไว้ได้มาก แต่บางครั้ง “ลืม” ว่ารายละเอียดใดมีความเกี่ยวข้องมากที่สุด นำไปสู่ภาพหลอนเล็กน้อยหรือการเบี่ยงเบนที่ไม่เกี่ยวข้อง

  • การจัดรูปแบบหรือการเชื่อฟังคำแนะนำที่ไม่สอดคล้องกัน: ในการเปรียบเทียบแบบเคียงข้างกัน ผู้ใช้บางคนพบว่า Claude คาดเดาได้น้อยกว่าในวิธีที่มันทำตามคำสั่งบางอย่าง ตัวอย่างเช่น Claude ถูกอธิบายว่า “มีลักษณะเหมือนมนุษย์มากกว่าในการโต้ตอบ แต่ปฏิบัติตามข้อความระบบน้อยกว่า” ซึ่งหมายความว่าหากคุณให้รูปแบบคงที่หรือบุคลิกที่เข้มงวดมาก Claude อาจเบี่ยงเบนมากกว่า ChatGPT นักพัฒนาที่ต้องการผลลัพธ์ที่กำหนดได้ (เช่น รูปแบบ JSON หรือสไตล์เฉพาะ) บางครั้งรู้สึกหงุดหงิดหาก Claude เพิ่มคำอธิบายเพิ่มเติมหรือไม่ปฏิบัติตามเทมเพลตอย่างเคร่งครัด

  • ข้อจำกัดเนื้อหาและการปฏิเสธ: แม้จะไม่ได้รับการวิพากษ์วิจารณ์บ่อยเท่ากับของ ChatGPT แต่ตัวกรองความปลอดภัยของ Claude ก็มีการพูดถึง Anthropic ออกแบบ Claude โดยเน้นหนักไปที่ AI ตามรัฐธรรมนูญ (ให้ AI เองปฏิบัติตามแนวทางจริยธรรม) ผู้ใช้มักพบว่า Claude ยินดีที่จะพูดคุยในหัวข้อที่หลากหลาย แต่มีบางกรณีที่ Claude ปฏิเสธคำขอที่ ChatGPT อาจอนุญาต ตัวอย่างเช่น ผู้ใช้ Reddit รายหนึ่งกล่าวว่า “ChatGPT มีข้อจำกัดทางศีลธรรมน้อยกว่า... มันจะอธิบายว่าหน้ากากแก๊สชนิดใดดีกว่าสำหรับสภาวะใด ในขณะที่ Claude จะปฏิเสธ” สิ่งนี้บ่งชี้ว่า Claude อาจเข้มงวดมากกว่าเกี่ยวกับคำแนะนำ “ที่ละเอียดอ่อน” บางอย่าง (อาจถือว่าเป็นคำแนะนำที่อาจเป็นอันตราย) ผู้ใช้อีกรายลองสถานการณ์เล่นบทบาทที่สนุกสนาน (“แกล้งทำเป็นว่าคุณถูกเอเลี่ยนลักพาตัว”) ซึ่ง Claude ปฏิเสธ ในขณะที่ Gemini และ ChatGPT จะมีส่วนร่วม ดังนั้น Claude จึงมีตัวกรองที่บางครั้งทำให้ผู้ใช้ประหลาดใจที่คาดหวังว่าจะอนุญาตมากกว่า

  • ขาดความสามารถหลายรูปแบบ: ไม่เหมือนกับ ChatGPT (ซึ่งในช่วงปลายปี 2023 ได้รับความเข้าใจเกี่ยวกับภาพด้วย GPT-4 Vision) Claude ปัจจุบันเป็นเพียงข้อความเท่านั้น ผู้ใช้ Reddit สังเกตว่า Claude ไม่สามารถวิเคราะห์ภาพหรือท่องเว็บได้โดยตรงด้วยตัวเอง นี่ไม่ใช่ “ปัญหา” (Anthropic ไม่เคยโฆษณาฟีเจอร์เหล่านั้น) แต่มันเป็นข้อจำกัดเมื่อเทียบกับคู่แข่ง ผู้ใช้ที่ต้องการ AI เพื่อแปลความหมายของไดอะแกรมหรือภาพหน้าจอไม่สามารถใช้ Claude ได้ ในขณะที่ ChatGPT หรือ Gemini อาจจัดการได้ ในทำนองเดียวกัน การดึงข้อมูลปัจจุบันใด ๆ ต้องใช้ Claude ผ่านเครื่องมือของบุคคลที่สาม (เช่น Poe หรือการรวมเครื่องมือค้นหา) เนื่องจาก Claude ไม่มีโหมดการท่องเว็บอย่างเป็นทางการในขณะนี้

  • ปัญหาความเสถียรเล็กน้อย: ผู้ใช้บางคนรายงานว่า Claude บางครั้งซ้ำซากหรือวนซ้ำในคำถามบางอย่าง (แม้ว่าจะพบได้น้อยกว่าบางโมเดลที่เล็กกว่า) นอกจากนี้ เวอร์ชันก่อนหน้าของ Claude บางครั้งสิ้นสุดการตอบสนองก่อนกำหนดหรือต้องใช้เวลานานกับผลลัพธ์ขนาดใหญ่ ซึ่งอาจถูกมองว่าเป็นความรำคาญเล็กน้อย แม้ว่า Claude 2 จะปรับปรุงเรื่องความเร็วแล้ว

ฟีเจอร์หรือการปรับปรุงที่ร้องขอบ่อย

  • ขีดจำกัดการใช้งานที่สูงขึ้นหรือปรับได้: ผู้ที่ชื่นชอบ Claude ใน Reddit มักขอให้ Anthropic เพิ่มขีดจำกัดการสนทนา พวกเขาต้องการใช้บริบท 100k ให้เต็มที่โดยไม่เจอการหยุดที่ไม่จำเป็น บางคนแนะนำว่าควรให้ Claude Pro ที่ชำระเงินอนุญาตให้ใช้โทเค็นได้มากขึ้น อย่างมาก ต่อวัน คนอื่น ๆ เสนอแนวคิดของ “โหมดบริบท 100k ที่ขยายออกไป” – เช่น “Claude ควรมีโหมดบริบท 100k ที่มีขีดจำกัดการใช้งานเพิ่มขึ้นเป็นสองเท่า” – ซึ่งอาจมีการสมัครสมาชิกที่ให้การเข้าถึงที่ขยายออกไปสำหรับผู้ใช้หนัก โดยสรุป มีความต้องการแผนที่แข่งขันกับการใช้งานไม่จำกัด (หรือขีดจำกัดสูง) ของ ChatGPT สำหรับสมาชิก

  • การนำทางบริบทยาวที่ดีขึ้น: ในขณะที่มีโทเค็น 100k เป็นการบุกเบิก ผู้ใช้ต้องการให้ Claude ใช้บริบทนั้นได้ดีขึ้น การปรับปรุงอย่างหนึ่งคือการปรับปรุงวิธีที่ Claude จัดลำดับความสำคัญของข้อมูลเพื่อให้มันอยู่ในเส้นทาง Anthropic สามารถทำงานเกี่ยวกับการปฏิบัติตามคำถามของโมเดลเมื่อคำถามมีขนาดใหญ่ การสนทนาใน Reddit แนะนำเทคนิคเช่นการอนุญาตให้ผู้ใช้ “ปักหมุด” คำแนะนำบางอย่างเพื่อไม่ให้ถูกเจือจางในบริบทขนาดใหญ่ เครื่องมือใด ๆ ที่ช่วยแบ่งส่วนหรือสรุปส่วนต่าง ๆ ของอินพุตก็สามารถช่วยให้ Claude จัดการกับอินพุตขนาดใหญ่ได้อย่างสอดคล้องกัน โดยสรุป ผู้ใช้ชื่นชอบความเป็นไปได้ในการป้อนหนังสือทั้งเล่มให้กับ Claude – พวกเขาแค่ต้องการให้มันเฉียบคมตลอด

  • ปลั๊กอินหรือการท่องเว็บ: ผู้ใช้ ChatGPT จำนวนมากคุ้นเคยกับปลั๊กอิน (เช่น การท่องเว็บ การดำเนินการโค้ด ฯลฯ) และพวกเขาแสดงความสนใจใน Claude ที่มีความสามารถในการขยายตัวคล้ายกัน คำขอทั่วไปคือให้ Claude มีฟังก์ชันการค้นหา/การท่องเว็บอย่างเป็นทางการ เพื่อให้สามารถดึงข้อมูลที่ทันสมัยได้ตามต้องการ ปัจจุบันความรู้ของ Claude ส่วนใหญ่เป็นแบบคงที่ (ข้อมูลการฝึกอบรมจนถึงต้นปี 2023 โดยมีการอัปเดตบางส่วน) หาก Claude สามารถค้นหาเว็บได้ ก็จะบรรเทาข้อจำกัดนั้นได้ ในทำนองเดียวกัน ระบบปลั๊กอินที่ Claude สามารถใช้เครื่องมือของบุคคลที่สาม (เช่น เครื่องคิดเลขหรือตัวเชื่อมต่อฐานข้อมูล) สามารถขยายประโยชน์ใช้สอยสำหรับผู้ใช้พลังงานได้ นี่เป็นฟีเจอร์ที่ Claude ขาด และผู้ใช้ Reddit มักพูดถึงว่าอีโคซิสเต็มของปลั๊กอินของ ChatGPT ทำให้มันได้เปรียบในงานบางอย่าง

  • อินพุตหลายรูปแบบ (ภาพหรือเสียง): ผู้ใช้บางคนสงสัยว่า Claude จะรองรับอินพุตภาพหรือสร้างภาพหรือไม่ Google’s Gemini และ OpenAI’s GPT-4 มีความสามารถหลายรูปแบบ ดังนั้นเพื่อให้สามารถแข่งขันได้ ผู้ใช้คาดหวังว่า Anthropic จะสำรวจสิ่งนี้ คำขอบ่อย ๆ คือ: “ฉันสามารถอัปโหลด PDF หรือภาพให้ Claude วิเคราะห์ได้ไหม?” ปัจจุบันคำตอบคือไม่ (นอกเหนือจากการแก้ปัญหาเช่นการแปลงภาพเป็นข้อความที่อื่น) แม้แต่การอนุญาตให้แปลงภาพเป็นข้อความ (OCR และคำอธิบาย) ก็จะทำให้หลายคนพอใจที่ต้องการผู้ช่วยครบวงจร นี่อยู่ในรายการความปรารถนา แม้ว่า Anthropic จะยังไม่ได้ประกาศอะไรที่คล้ายกันในต้นปี 2025

  • การปรับแต่งหรือการปรับแต่ง: ผู้ใช้ขั้นสูงและธุรกิจบางครั้งถามว่าพวกเขาสามารถปรับแต่ง Claude บนข้อมูลของตนเองหรือรับเวอร์ชันที่กำหนดเองได้หรือไม่ OpenAI เสนอการปรับแต่งสำหรับโมเดลบางตัว (ยังไม่ใช่ GPT-4 แต่สำหรับ GPT-3.5) Anthropic เปิดตัวอินเทอร์เฟซการปรับแต่งสำหรับ Claude 1.3 ก่อนหน้านี้ แต่ไม่ได้โฆษณาอย่างกว้างขวางสำหรับ Claude 2 ผู้ใช้ Reddit ได้สอบถามเกี่ยวกับความสามารถในการฝึก Claude บนความรู้ของบริษัทหรือสไตล์การเขียนส่วนตัว วิธีที่ง่ายกว่าในการทำเช่นนี้ (นอกเหนือจากการฉีดคำถามทุกครั้ง) จะเป็นที่ต้อนรับอย่างมาก เนื่องจากสามารถเปลี่ยน Claude ให้เป็นผู้ช่วยส่วนบุคคลที่จดจำฐานความรู้หรือบุคลิกเฉพาะได้

  • การเข้าถึงที่กว้างขึ้น: ผู้ใช้ที่ไม่ใช่ชาวสหรัฐฯ มักขอให้ Claude เปิดตัวอย่างเป็นทางการในประเทศของตน โพสต์จากแคนาดา ยุโรป อินเดีย ฯลฯ ถามว่าพวกเขาสามารถใช้เว็บไซต์ของ Claude ได้เมื่อใดโดยไม่ต้องใช้ VPN หรือเมื่อ Claude API จะเปิดให้บริการอย่างกว้างขวางมากขึ้น Anthropic ระมัดระวัง แต่ความต้องการเป็นสากล – การปรับปรุงในสายตาของหลายคนคือเพียงแค่ “ให้พวกเรามากขึ้นใช้มัน” การขยายการเข้าถึงของบริษัทอย่างค่อยเป็นค่อยไปได้แก้ไขปัญหานี้บางส่วนแล้ว

ความต้องการหรือกลุ่มผู้ใช้ที่ยังไม่ได้รับการตอบสนอง

  • ฐานผู้ใช้ระหว่างประเทศ: ดังที่ได้กล่าวไว้เป็นเวลานาน ฐานผู้ใช้หลักของ Claude ถูกจำกัดตามภูมิศาสตร์ สิ่งนี้ทำให้ผู้ใช้ที่ อาจจะ จำนวนมากไม่ได้รับการตอบสนอง ตัวอย่างเช่น นักพัฒนาในเยอรมนีที่สนใจบริบท 100k ของ Claude ไม่มีวิธีการใช้อย่างเป็นทางการ แม้ว่าจะมีวิธีแก้ปัญหา (แพลตฟอร์มของบุคคลที่สาม หรือ VPN + การยืนยันโทรศัพท์ในประเทศที่รองรับ) อุปสรรคเหล่านี้หมายความว่าผู้ใช้ทั่วไปในต่างประเทศถูกล็อกออกไปอย่างมีประสิทธิภาพ ในทางตรงกันข้าม ChatGPT มีให้บริการในประเทศส่วนใหญ่ ดังนั้นผู้ใช้ที่ไม่ใช่ชาวสหรัฐฯ ที่พูดภาษาอังกฤษและโดยเฉพาะอย่างยิ่งผู้ที่ไม่พูดภาษาอังกฤษจึงไม่ได้รับการตอบสนองจากการเปิดตัวที่จำกัดของ Claude พวกเขาอาจยังคงพึ่งพา ChatGPT หรือโมเดลท้องถิ่นเพียงเพราะปัญหาการเข้าถึง

  • ผู้ใช้ที่ต้องการการจัดรูปแบบผลลัพธ์ที่เข้มงวด: ดังที่ได้กล่าวไว้ Claude บางครั้งใช้เสรีภาพในการตอบกลับ ผู้ใช้ที่ต้องการผลลัพธ์ที่มีโครงสร้างสูง (เช่น JSON สำหรับแอปพลิเคชัน หรือคำตอบที่เป็นไปตามรูปแบบที่แม่นยำ) อาจพบว่า Claude ไม่น่าเชื่อถือสำหรับสิ่งนั้นเท่ากับ ChatGPT ผู้ใช้เหล่านี้ – มักเป็นนักพัฒนาที่รวม AI เข้ากับระบบ – เป็นกลุ่มที่สามารถให้บริการได้ดีขึ้นหาก Claude อนุญาตให้มี “โหมดเข้มงวด” หรือปรับปรุงการปฏิบัติตามคำแนะนำ พวกเขาอาจหลีกเลี่ยง Claude สำหรับงานดังกล่าว โดยยึดติดกับโมเดลที่รู้จักกันดีว่าปฏิบัติตามรูปแบบอย่างเคร่งครัดมากขึ้น

  • ผู้ใช้ Q&A ทั่วไป (เทียบกับผู้ใช้ที่มีความคิดสร้างสรรค์): Claude มักได้รับการยกย่องในงานสร้างสรรค์ – มันผลิตร้อยแก้วที่ลื่นไหลเหมือนมนุษย์และเรียงความที่รอบคอบ อย่างไรก็ตาม ผู้ใช้บางคนใน Reddit ตั้งข้อสังเกตว่าสำหรับการถามตอบอย่างตรงไปตรงมาหรือคำถามตามข้อเท็จจริง Claude บางครั้งให้คำตอบที่ยืดยาวซึ่งความกระชับจะทำได้ ผู้ใช้ที่เปรียบเทียบ ChatGPT และ Claude กล่าวว่า ChatGPT มักจะกระชับและเป็นหัวข้อย่อย ในขณะที่ Claude ให้คำบรรยายมากกว่าโดยค่าเริ่มต้น ผู้ใช้ที่ต้องการเพียงคำตอบตามข้อเท็จจริงอย่างรวดเร็ว (เช่น “เมืองหลวงของ X และประชากรของเมืองคืออะไร?”) อาจรู้สึกว่า Claude ค่อนข้างอ้อมค้อม ผู้ใช้เหล่านี้ได้รับการตอบสนองที่ดีกว่าด้วยสิ่งที่คล้ายกับการค้นหาที่แม่นยำหรือโมเดลที่กระชับ Claude สามารถทำได้หากถูกถาม แต่สไตล์ของมันอาจไม่ตรงกับความคาดหวังของการถามตอบที่กระชับ หมายความว่ากลุ่มนี้อาจเปลี่ยนไปใช้เครื่องมืออื่น (เช่น Bing Chat หรือ Google)

  • ผู้ใช้ที่มีความปลอดภัยเป็นสำคัญ: ในทางกลับกัน ผู้ใช้บางคนที่ ต้องการ การปฏิบัติตามความปลอดภัยอย่างระมัดระวังมาก (เช่น นักการศึกษาที่ใช้ AI กับนักเรียน หรือผู้ใช้ระดับองค์กรที่ต้องการความเสี่ยงเป็นศูนย์ของผลลัพธ์ที่ไม่ดี) อาจพิจารณาว่าการจัดแนวของ Claude เป็นข้อดี แต่เนื่องจาก ChatGPT ก็มีการจัดแนวค่อนข้างดีเช่นกันและมีฟีเจอร์ระดับองค์กรมากกว่า ผู้ใช้เหล่านั้นอาจไม่เลือก Claude โดยเฉพาะ เป็นกลุ่มเล็ก ๆ แต่สามารถโต้แย้งได้ว่า Claude ยังไม่ได้จับกลุ่มนี้อย่างชัดเจน พวกเขาอาจไม่ได้รับการตอบสนองในแง่ที่ว่าพวกเขาไม่มีวิธีง่าย ๆ ในการ เพิ่ม มาตรการป้องกันของ Claude หรือดู “ห่วงโซ่ความคิด” (ซึ่ง Anthropic มีภายในผ่านแนวทาง AI ตามรัฐธรรมนูญ แต่ผู้ใช้ปลายทางไม่โต้ตอบโดยตรงกับสิ่งนั้นนอกจากสังเกตเห็นโทนที่สุภาพโดยทั่วไปของ Claude)

  • ผู้ที่ไม่พูดภาษาอังกฤษ (คุณภาพของผลลัพธ์): Claude ได้รับการฝึกฝนในภาษาอังกฤษเป็นหลัก (เช่นเดียวกับ LLM ขนาดใหญ่ส่วนใหญ่) ผู้ใช้บางคนได้ทดสอบในภาษาอื่น ๆ Claude สามารถตอบกลับได้หลายภาษา แต่คุณภาพอาจแตกต่างกันไป หากผู้ใช้ต้องการคำตอบที่ละเอียดอ่อนมากในภาษาฝรั่งเศสหรือภาษาฮินดี เป็นไปได้ว่าความสามารถของ Claude อาจไม่ได้รับการปรับแต่งอย่างละเอียดในที่นั้นเท่ากับ ChatGPT (GPT-4 ได้แสดงให้เห็นถึงประสิทธิภาพหลายภาษาที่แข็งแกร่ง มักจะสูงกว่าโมเดลอื่น ๆ ในเกณฑ์มาตรฐานบางอย่าง) ผู้ใช้ที่สนทนาในภาษาที่ไม่ใช่ภาษาอังกฤษเป็นหลักอาจพบว่าความคล่องแคล่วหรือความแม่นยำของ Claude อ่อนแอกว่าเล็กน้อย กลุ่มนี้ไม่ได้รับการตอบสนองเพียงเพราะ Anthropic ยังไม่ได้เน้นการฝึกอบรมหลายภาษาเป็นลำดับความสำคัญอย่างเปิดเผย

ความแตกต่างในการรับรู้ตามประเภทผู้ใช้

  • นักพัฒนา/ผู้ใช้ทางเทคนิค: นักพัฒนาใน Reddit ได้ยกย่อง Claude มากขึ้นเรื่อย ๆ โดยเฉพาะอย่างยิ่ง Claude 2 / Claude 3.5 สำหรับงานการเขียนโค้ด การเปลี่ยนแปลงการรับรู้ในปลายปี 2024 นั้นเห็นได้ชัด: นักพัฒนาหลายคนเริ่มชอบ Claude มากกว่า ChatGPT สำหรับความช่วยเหลือด้านการเขียนโปรแกรม พวกเขาอ้างถึง “ยอดเยี่ยมในการเขียนโค้ด” และความสามารถในการจัดการฐานโค้ดขนาดใหญ่ในครั้งเดียว ตัวอย่างเช่น ผู้ใช้คนหนึ่งเขียนว่า “Claude Sonnet 3.5 ดีกว่าที่จะทำงานกับโค้ด (วิเคราะห์ สร้าง) [มากกว่า ChatGPT]” นักพัฒนาชื่นชมที่ Claude สามารถใช้โค้ดโปรเจ็กต์หรือบันทึกจำนวนมากและสร้างการวิเคราะห์หรือการปรับปรุงที่สอดคล้องกันได้ ต้องขอบคุณบริบทขนาดใหญ่ของมัน อย่างไรก็ตาม พวกเขายังสังเกตเห็นความแปลกประหลาดของมัน – เช่น บางครั้งการใส่คำพูดที่ฟุ่มเฟือยมากขึ้นหรือไม่ปฏิบัติตามข้อกำหนดอย่างเคร่งครัด โดยรวมแล้ว นักพัฒนาหลายคนเก็บทั้ง ChatGPT และ Claude ไว้ในมือ: หนึ่งสำหรับตรรกะทีละขั้นตอนที่เข้มงวด (ChatGPT) และหนึ่งสำหรับบริบทกว้างและความเข้าใจที่เห็นอกเห็นใจ (Claude) เป็นเรื่องที่บอกได้ว่าผู้แสดงความคิดเห็นกล่าวว่า “ถ้าฉันต้องเลือกหนึ่ง ฉันจะเลือก Claude” หลังจากเปรียบเทียบทั้งสองทุกวัน สิ่งนี้บ่งชี้ถึงการรับรู้ในเชิงบวกมากในหมู่ผู้ใช้ขั้นสูง โดยเฉพาะอย่างยิ่งสำหรับกรณีการใช้งานเช่นการระดมสมอง การตรวจสอบโค้ด หรือข้อเสนอแนะด้านสถาปัตยกรรม ข้อร้องเรียนทั่วไปเพียงอย่างเดียวจากนักพัฒนาคือการเจอขีดจำกัดการใช้งานของ Claude เมื่อพวกเขาพยายามผลักดันมันอย่างหนัก (เช่น ป้อนคำถาม 50K โทเค็นเพื่อวิเคราะห์ที่เก็บทั้งหมด) โดยสรุป นักพัฒนามองว่า Claude เป็นเครื่องมือที่ทรงพลังมาก – ในบางกรณีดีกว่า ChatGPT – ถูกจำกัดเพียงการเข้าถึงและความคาดเดาไม่ได้ในบางครั้งในการจัดรูปแบบ

  • ผู้ใช้ทั่วไป/ผู้ใช้ที่ไม่ใช่เทคนิค: ผู้ใช้ทั่วไปที่ได้ลอง Claude มักแสดงความคิดเห็นว่า เป็นมิตรและมีวาทศิลป์ Claude มีแนวโน้มที่จะเป็นการสนทนา สุภาพ และมีรายละเอียด ผู้ใช้ใหม่ที่เปรียบเทียบกับ ChatGPT สังเกตว่า “Claude มีความเห็นอกเห็นใจมากกว่า และทำตามโทนการสนทนา... ChatGPT มักจะใช้หัวข้อย่อยบ่อยเกินไป” ความอบอุ่นเหมือนมนุษย์นี้ทำให้ Claude น่าสนใจสำหรับผู้ที่ใช้มันเพื่อการเขียนเชิงสร้างสรรค์ คำแนะนำ หรือเพียงแค่พูดคุยเพื่อข้อมูล บางคนถึงกับทำให้ Claude มี “บุคลิก” ที่เห็นอกเห็นใจ ผู้ใช้ทั่วไปยังชอบที่เวอร์ชันฟรีของ Claude อนุญาตให้เข้าถึงเทียบเท่ากับระดับ GPT-4 โดยไม่ต้องสมัครสมาชิก (อย่างน้อยก็จนถึงขีดจำกัดอัตรา) ในทางกลับกัน ผู้ใช้ทั่วไปเจอการปฏิเสธของ Claude ในหัวข้อบางอย่างและอาจไม่เข้าใจว่าทำไม (เนื่องจาก Claude จะพูดอย่างขอโทษแต่หนักแน่น) หากผู้ใช้ทั่วไปถามบางอย่างที่อยู่ในขอบเขตและได้รับการปฏิเสธจาก Claude พวกเขาอาจมองว่ามันมีความสามารถน้อยกว่าหรือถูกจำกัดเกินไป โดยไม่รู้ว่ามันเป็นจุดยืนของนโยบาย อีกแง่มุมหนึ่งคือ Claude ขาดการรับรู้ชื่อ – ผู้ใช้ทั่วไปหลายคนอาจไม่รู้ด้วยซ้ำว่าจะลองใช้มันหรือไม่เว้นแต่พวกเขาจะเชื่อมต่อกับชุมชน AI ผู้ที่ลองใช้มักจะแสดงความคิดเห็นว่ามันรู้สึก “เหมือนคุยกับมนุษย์” ในทางที่ดี พวกเขามักจะพอใจกับความสามารถของ Claude ในการจัดการคำถามปลายเปิดหรือคำถามส่วนตัว ดังนั้นการรับรู้ของผู้ใช้ทั่วไปจึงเป็นไปในเชิงบวกอย่างมากเกี่ยวกับ คุณภาพและโทนของผลลัพธ์ ของ Claude โดยมีความสับสนหรือความหงุดหงิดบางประการเกี่ยวกับความพร้อมใช้งาน (ต้องใช้ในแอปเฉพาะหรือภูมิภาค) และบางครั้ง “ทำไม่ได้” ช่วงเวลา

  • ผู้ใช้ธุรกิจ/ผู้ใช้มืออาชีพ: การรับรู้ของธุรกิจเกี่ยวกับ Claude นั้นยากที่จะวัดจาก Reddit สาธารณะ (เนื่องจากผู้ใช้ระดับองค์กรโพสต์รายละเอียดน้อยกว่า) แต่มีแนวโน้มบางอย่างเกิดขึ้น ประการแรก Anthropic ได้วางตำแหน่ง Claude ให้มีความ มุ่งเน้นด้านความเป็นส่วนตัว มากขึ้นและเต็มใจที่จะลงนามในข้อตกลงระดับองค์กร – สิ่งนี้ดึงดูดบริษัทที่กังวลเกี่ยวกับข้อมูลกับ OpenAI จริง ๆ แล้ว การสนทนาใน Reddit บางรายการกล่าวถึง Claude ในบริบทของเครื่องมือเช่น Slack หรือ Notion ซึ่งมันถูกรวมเป็นผู้ช่วย ผู้เชี่ยวชาญที่ใช้การผสานรวมเหล่านั้นอาจไม่รู้ด้วยซ้ำว่า Claude เป็นเครื่องยนต์ แต่เมื่อพวกเขาทำ พวกเขาจะเปรียบเทียบในแง่ดีในแง่ของสไตล์การเขียนและความสามารถในการย่อยเอกสารขององค์กรขนาดใหญ่ ตัวอย่างเช่น ทีมอาจป้อนรายงานรายไตรมาสที่ยาวให้กับ Claude และได้รับสรุปที่เหมาะสม – สิ่งที่บริบทที่เล็กกว่าของ ChatGPT จะลำบาก อย่างไรก็ตาม ผู้ใช้ธุรกิจยังสังเกตเห็นการขาดฟีเจอร์ของอีโคซิสเต็มบางอย่าง ตัวอย่างเช่น OpenAI เสนอการควบคุมข้อความระบบ การเรียกฟังก์ชัน ฯลฯ ใน API ของพวกเขา ซึ่ง Anthropic มีการสนับสนุนที่จำกัดมากกว่า นักพัฒนาที่ทำงานเกี่ยวกับโซลูชันทางธุรกิจกล่าวว่า Claude สามารถควบคุมได้มากกว่าในการสนทนา ในขณะที่ ChatGPT มักจะเข้มงวดกว่า... [แต่] ChatGPT สามารถเข้าถึงเว็บได้ซึ่งอาจมีประโยชน์มาก ความหมายคือสำหรับงานวิจัยหรือการค้นหาข้อมูลที่ผู้ใช้ธุรกิจอาจต้องการ (เช่น ข่าวกรองการแข่งขัน) ChatGPT สามารถดึงข้อมูลได้โดยตรง ในขณะที่ Claude จะต้องมีขั้นตอนแยกต่างหาก โดยรวมแล้ว ผู้ใช้ธุรกิจดู Claude เป็น AI ที่มีความสามารถมาก – ในบางกรณี ดีกว่า สำหรับงานวิเคราะห์ภายใน – แต่บางทีอาจยังไม่สมบูรณ์เท่าสำหรับการรวมเข้าด้วยกัน ค่าใช้จ่ายเป็นอีกปัจจัยหนึ่ง: การกำหนดราคาและเงื่อนไขของ API ของ Claude ไม่เป็นสาธารณะเท่ากับของ OpenAI และสตาร์ทอัพบางรายใน Reddit ได้กล่าวถึงความไม่แน่นอนเกี่ยวกับการกำหนดราคาหรือความเสถียรของ Claude โดยสรุป ผู้เชี่ยวชาญเคารพความสามารถของ Claude (โดยเฉพาะความน่าเชื่อถือในการปฏิบัติตามคำแนะนำระดับสูงและสรุปข้อมูลขนาดใหญ่) แต่พวกเขาจับตาดูว่ามันพัฒนาอย่างไรในแง่ของการรวม การสนับสนุน และความพร้อมใช้งานทั่วโลกก่อนที่จะมุ่งมั่นอย่างเต็มที่กับมันมากกว่า ChatGPT ที่เป็นที่ยอมรับมากกว่า


Google Gemini (Bard)

ปัญหาและข้อจำกัดทั่วไป

  • คำตอบที่ไม่ถูกต้องหรือ “โง่”: มีความคิดเห็นใน Reddit จำนวนมากเมื่อ Google เปิดตัวการอัปเกรด Bard ที่ขับเคลื่อนด้วย Gemini ซึ่งส่วนใหญ่เป็นเชิงลบ ผู้ใช้บ่นว่า Gemini ทำงานได้ต่ำกว่ามาตรฐานในการถามตอบพื้นฐาน เมื่อเทียบกับ ChatGPT การประเมินที่ตรงไปตรงมาชื่อ “100% Honest Take on Google Gemini” ระบุว่า: “มันเป็นแชทบอท LLM ที่เสียหายและไม่ถูกต้อง” ผู้ใช้ที่หงุดหงิดอีกคนถามว่า: “Gemini ยังแย่อยู่ได้อย่างไร? จำนวนครั้งที่ฉันถาม Gemini บางอย่างและมันให้คำตอบที่ไม่ถูกต้องหรือคำตอบที่ไม่สมบูรณ์นั้นน่าหัวเราะ” พวกเขาเปรียบเทียบแบบเคียงข้างกันกับ ChatGPT-4 และพบว่า ChatGPT ให้ “คำตอบที่สมบูรณ์แบบ ถูกต้อง มีประสิทธิภาพในครั้งเดียว” ในขณะที่ Gemini พูดเพ้อเจ้อและต้องการคำถามหลายคำถามเพื่อให้ได้คำตอบที่พอใจครึ่งหนึ่ง โดยสรุป ผู้ใช้ในช่วงแรก ๆ รู้สึกว่า Gemini มัก หลงประเด็นหรือพลาดประเด็น ของคำถาม ต้องใช้ความพยายามในการถามคำถามมากเกินไปเพื่อดึงข้อมูลที่ถูกต้อง ความไม่สอดคล้องกันในคุณภาพนี้เป็นความผิดหวังครั้งใหญ่เมื่อพิจารณาจากความคาดหวังเกี่ยวกับ Gemini

  • ความยาวและความฟุ่มเฟือยเกินไป: ผู้ใช้หลายคนสังเกตว่า Gemini (ในรูปแบบของ Bard ใหม่) มีแนวโน้มที่จะสร้างคำตอบที่ยืดยาวซึ่งไม่ตรงประเด็น ตามที่คนหนึ่งอธิบายว่า “มันพูดเพ้อเจ้อ... 3 ย่อหน้าของขยะ AI... แม้กระทั่งตอนนั้น มัน [เพียง] กล่าวถึงคำตอบในย่อหน้าของขยะ” นี่เป็นความแตกต่างอย่างชัดเจนกับ ChatGPT ซึ่งมักจะให้คำตอบที่กระชับกว่าหรือเป็นหัวข้อย่อยเมื่อเหมาะสม ความยาวกลายเป็นปัญหาเมื่อผู้ใช้ต้องคัดกรองข้อความจำนวนมากเพื่อหาข้อเท็จจริงง่าย ๆ บางคนคาดเดาว่า Google อาจปรับแต่งให้เป็นการสนทนาหรือ “ช่วยเหลือ” แต่เกินไปใน การอธิบายมากเกินไปโดยไม่มีสาระสำคัญ

  • การรวมเข้ากับบริการของ Google ที่ไม่ดี: หนึ่งในจุดขายของผู้ช่วย AI ของ Google ควรจะเป็นการรวมเข้ากับอีโคซิสเต็มของ Google (Gmail, Docs, Drive ฯลฯ) อย่างไรก็ตาม ประสบการณ์ของผู้ใช้ในช่วงแรก ๆ นั้นน่าผิดหวังมากในด้านนี้ ผู้ใช้คนหนึ่งระบายว่า: “อย่าให้ฉันเริ่มเกี่ยวกับความสามารถในการรวมเข้ากับผลิตภัณฑ์ของ Google เองที่เกือบจะไม่มีอยู่จริงซึ่งควรจะเป็น ‘ฟีเจอร์’ (ซึ่งมันดูเหมือนจะไม่รู้ว่ามี)” ตัวอย่างเช่น ผู้คนจะลองขอให้ Gemini (ผ่าน Bard) สรุป Google Doc หรือร่างอีเมลตามข้อมูลบางอย่าง – ฟีเจอร์ที่ Google โฆษณา – และบอทจะตอบว่ามัน ไม่สามารถเข้าถึงข้อมูลนั้นได้ ผู้ใช้คนหนึ่งใน r/GooglePixel เขียนว่า: “ทุกครั้งที่ฉันพยายามใช้ Gemini กับ Google Docs หรือ Drive ของฉัน มันบอกว่ามันไม่สามารถทำอะไรกับมันได้ จุดประสงค์ของการมีฟีเจอร์การรวมเหล่านี้คืออะไร?” สิ่งนี้แสดงให้เห็นถึงช่องว่างที่สำคัญระหว่างความสามารถที่สัญญาไว้และประสิทธิภาพจริง ทำให้ผู้ใช้รู้สึกว่าผู้ช่วย AI “ไม่ช่วยเหลือ” มากนักในอีโคซิสเต็มของ Google เอง

  • การปฏิเสธและความสับสนในความสามารถ: ผู้ใช้ยังเจอการปฏิเสธหรือความขัดแย้งที่แปลกประหลาดจาก Gemini ผู้ใช้ Redditor คนเดียวกันสังเกตว่า Gemini “ปฏิเสธที่จะทำสิ่งต่าง ๆ โดยไม่มีเหตุผล ลืมว่ามันสามารถทำสิ่งอื่น ๆ ได้... วันก่อนมันบอกฉันว่ามันไม่มีการเข้าถึงอินเทอร์เน็ต/ข้อมูลสด อะไรนะ” สิ่งนี้บ่งชี้ว่า Gemini บางครั้ง ปฏิเสธงานที่มันควรจะทำได้ (เช่น การดึงข้อมูลสด ซึ่ง Bard เชื่อมต่ออยู่) หรือให้คำแถลงที่ไม่ถูกต้องเกี่ยวกับความสามารถของตัวเอง ประสบการณ์ดังกล่าวทำให้เกิดความประทับใจของ AI ที่ไม่เพียงแค่ฉลาดน้อยกว่า แต่ยัง ไม่น่าเชื่อถือหรือไม่ตระหนักรู้ในตัวเอง อีกด้วย ความคิดเห็นที่มีสีสันของผู้ใช้อีกราย: “Gemini เป็นขยะอย่างแท้จริง คุณเคยมีช่วงเวลาที่คุณแค่อยากจะยกมือขึ้นและพูดว่า ‘พวกเขาคิดอะไรอยู่?’” สรุปคือ ปัญหาการรวมผลิตภัณฑ์และความสม่ำเสมอของ Gemini ทำให้มันรู้สึก ยังไม่เสร็จสมบูรณ์ สำหรับผู้ใช้ในช่วงแรก ๆ หลายคน

  • ความสามารถในการเขียนโค้ดที่ไม่น่าประทับใจ: แม้จะไม่ได้มีการพูดถึงอย่างกว้างขวางเท่ากับการถามตอบทั่วไป ผู้ใช้หลายคนได้ทดสอบ Gemini (Bard) ในงานการเขียนโค้ดและพบว่ามันด้อยกว่า ในฟอรัม AI ความสามารถในการเขียนโค้ดของ Gemini มักถูกจัดอันดับต่ำกว่า GPT-4 และแม้แต่ต่ำกว่า Claude ตัวอย่างเช่น ผู้ใช้คนหนึ่งระบุอย่างตรงไปตรงมาว่า “Claude 3.5 Sonnet ดีกว่าอย่างชัดเจนสำหรับการเขียนโค้ดมากกว่า ChatGPT 4o... Gemini เป็นขยะอย่างแท้จริง [ในบริบทนั้น]” ข้อสรุปคือ Gemini สามารถเขียนโค้ดง่าย ๆ หรืออธิบายอัลกอริธึมพื้นฐานได้ แต่บ่อยครั้งที่มันสะดุดในปัญหาที่ซับซ้อนกว่าหรือสร้างโค้ดที่มีข้อผิดพลาด การขาดชุดเครื่องมือสำหรับนักพัฒนาที่กว้างขวาง (เช่น มันไม่มีสิ่งที่เทียบเท่ากับ Code Interpreter หรือการเรียกฟังก์ชันที่แข็งแกร่ง) ยังหมายความว่ามันไม่ใช่ตัวเลือกแรกสำหรับโปรแกรมเมอร์ ดังนั้นในขณะที่ผู้ใช้ทั่วไปอาจไม่สนใจเรื่องโค้ดมากนัก แต่นี่เป็นข้อจำกัดสำหรับกลุ่มนั้น

  • ข้อจำกัดของอุปกรณ์เคลื่อนที่: Gemini เปิดตัวเป็นส่วนหนึ่งของ Google’s Assistant บนโทรศัพท์ Pixel (ภายใต้แบรนด์ “Assistant with Bard”) ผู้ใช้ Pixel บางคนสังเกตว่าการใช้มันเป็นตัวแทนของผู้ช่วยเสียงมีปัญหา บางครั้งมันไม่รับคำสั่งเสียงอย่างถูกต้องหรือใช้เวลาตอบสนองนานเกินไปเมื่อเทียบกับ Google Assistant เก่า นอกจากนี้ยังมีความคิดเห็นเกี่ยวกับความจำเป็นในการเลือกเข้าร่วมและสูญเสียฟีเจอร์บางอย่างของ Assistant แบบคลาสสิก สิ่งนี้สร้างการรับรู้ว่า การรวม Gemini บนอุปกรณ์ยังไม่พร้อมเต็มที่ ทำให้ผู้ใช้พลังงานของอีโคซิสเต็มของ Google รู้สึกว่าพวกเขาต้องเลือกระหว่างผู้ช่วยที่ฉลาดและผู้ช่วยที่ใช้งานได้

ฟีเจอร์หรือการปรับปรุงที่ร้องขอบ่อย

  • ปรับปรุงความแม่นยำและการให้เหตุผลอย่างมาก: การปรับปรุงอันดับหนึ่งที่ผู้ใช้ต้องการสำหรับ Gemini คือเพียงแค่ ให้ฉลาดขึ้นและน่าเชื่อถือมากขึ้น ข้อเสนอแนะใน Reddit ทำให้ชัดเจนว่า Google จำเป็นต้องปิดช่องว่างในคุณภาพของคำตอบ ผู้ใช้คาดหวังว่า Gemini จะใช้การเข้าถึงข้อมูลจำนวนมากของ Google เพื่อให้ คำตอบที่เป็นข้อเท็จจริงและตรงไปตรงมา ไม่ใช่คำตอบที่ยืดยาวหรือไม่ถูกต้อง ดังนั้นคำขอ (มักจะมีการพูดประชดประชัน) จึงสรุปได้ว่า: ทำให้มันดีเท่าหรือดีกว่า GPT-4 ในความรู้ทั่วไปและการให้เหตุผล ซึ่งรวมถึงการจัดการคำถามติดตามผลและคำถามที่ซับซ้อนได้ดีขึ้น โดยพื้นฐานแล้ว “แก้ไขสมอง” ของ Gemini – ใช้ประโยชน์จากข้อได้เปรียบในการฝึกอบรมหลายรูปแบบที่อ้างว่าเพื่อให้มันหยุดพลาดรายละเอียดที่ชัดเจน Google น่าจะได้ยินเรื่องนี้อย่างชัดเจน: โพสต์หลายรายการเปรียบเทียบคำตอบเฉพาะที่ ChatGPT ทำได้ดีและ Gemini ล้มเหลว ซึ่งทำหน้าที่เป็นรายงานข้อบกพร่องที่ไม่เป็นทางการสำหรับการปรับปรุง

  • การรวมเข้ากับบริบทและการรับรู้ที่ดีขึ้น: ผู้ใช้ต้องการให้ Gemini ทำตามสัญญาของผู้ช่วยอีโคซิสเต็มของ Google อย่างราบรื่น ซึ่งหมายความว่ามันควร เชื่อมต่อกับ Gmail, Calendar, Docs, Drive ฯลฯ ได้อย่างถูกต้อง หากผู้ใช้ถามว่า “สรุปเอกสารที่ฉันเปิด” หรือ “ร่างคำตอบสำหรับอีเมลล่าสุดจากเจ้านายของฉัน” AI ควรทำ – และทำอย่างปลอดภัย ตอนนี้คำขอคือให้ Google เปิดใช้งานฟีเจอร์เหล่านั้นและทำให้ Gemini รู้จักเมื่อทำงานดังกล่าวเป็นไปได้ มันถูกโฆษณาว่า Bard สามารถเชื่อมต่อกับเนื้อหาของผู้ใช้ (ด้วยการอนุญาต) ดังนั้นผู้ใช้จึงเรียกร้องให้ Google “เปิด” หรือแก้ไขการรวมนี้ นี่เป็นฟีเจอร์สำคัญสำหรับผู้ใช้ธุรกิจโดยเฉพาะ นอกจากนี้ ในด้านการท่องเว็บ: Bard (Gemini) สามารถค้นหาเว็บได้ แต่ผู้ใช้บางคนต้องการให้มันอ้างอิงแหล่งข้อมูลอย่างชัดเจนหรือรวมข่าวด่วนได้ทันเวลา ดังนั้นการปรับปรุงลักษณะที่ เชื่อมต่อ ของ Gemini เป็นคำขอบ่อย

  • การควบคุมความกระชับ: เนื่องจากมีการร้องเรียนเกี่ยวกับความยาว ผู้ใช้บางคนแนะนำฟีเจอร์ในการสลับรูปแบบการตอบสนอง ตัวอย่างเช่น “โหมดสั้น” ที่ Gemini ให้คำตอบสั้น ๆ โดยค่าเริ่มต้น เว้นแต่จะขอให้ขยายความ ในทางกลับกัน อาจมี “โหมดละเอียด” สำหรับผู้ที่ต้องการคำตอบที่ละเอียดมาก ChatGPT อนุญาตให้บางส่วนโดยคำถามของผู้ใช้ (“ให้มันสั้น”) กับ Gemini ผู้ใช้รู้สึกว่าถึงแม้พวกเขาจะไม่ขอรายละเอียด มันก็อธิบายมากเกินไป ดังนั้นการตั้งค่าในตัวหรือเพียงแค่การปรับแต่งที่ดีขึ้นเพื่อสร้างคำตอบที่กระชับเมื่อเหมาะสมจะเป็นการปรับปรุงที่น่ายินดี โดยพื้นฐานแล้ว ปรับการควบคุมความยาว

  • ความเท่าเทียมกับ ChatGPT (การเขียนโค้ด ปลั๊กอิน ฯลฯ): ผู้ใช้พลังงานใน Reddit เปรียบเทียบฟีเจอร์อย่างชัดเจน พวกเขาขอให้ Google’s Gemini/Bard เสนอสิ่งต่าง ๆ เช่น แซนด์บ็อกซ์การดำเนินการโค้ด (คล้ายกับ ChatGPT’s Code Interpreter) ความสามารถในการอัปโหลดภาพ/PDF เพื่อการวิเคราะห์ (เนื่องจาก Gemini เป็นหลายรูปแบบ ผู้ใช้ต้องการป้อนภาพที่กำหนดเองจริง ๆ ไม่ใช่แค่ให้มันอธิบายภาพที่ให้ไว้) ฟีเจอร์ที่กล่าวถึงบ่อยอีกอย่างคือ หน่วยความจำภายในการสนทนาที่ดีขึ้น – ในขณะที่ Bard มีหน่วยความจำบางส่วนของการโต้ตอบที่ผ่านมา ผู้ใช้ต้องการให้มันดีเท่ากับ ChatGPT ในการอ้างอิงบริบทก่อนหน้า หรือแม้แต่มีการจัดเก็บการสนทนาอย่างถาวรเช่นประวัติการแชทของ ChatGPT ที่คุณสามารถเลื่อนดูและกลับไปดูได้ โดยพื้นฐานแล้ว Google ถูกขอให้ตามทันฟีเจอร์คุณภาพชีวิตทั้งหมดที่ผู้ใช้ ChatGPT Plus มี: ประวัติการแชท อีโคซิสเต็มของปลั๊กอิน (หรืออย่างน้อยการรวมบุคคลที่สามที่แข็งแกร่ง) ความช่วยเหลือด้านการเขียนโค้ด ฯลฯ

  • การปรับปรุงแอปมือถือและเสียง: ผู้ใช้ทั่วไปจำนวนมากร้องขอ แอปมือถือเฉพาะสำหรับ Bard/Gemini (คล้ายกับแอปมือถือ ChatGPT) การพึ่งพาอินเทอร์เฟซเว็บหรือเฉพาะ Assistant ของ Pixel เป็นการจำกัด แอปอย่างเป็นทางการใน iOS/Android ที่มีอินพุตเสียง การตอบสนองด้วยเสียง (สำหรับความรู้สึกของผู้ช่วยจริง) และการรวมที่แน่นหนาสามารถปรับปรุงประสบการณ์ของผู้ใช้ได้อย่างมาก พร้อมกับนั้น เจ้าของ Pixel ต้องการให้ Assistant with Bard เร็วขึ้นและใช้งานได้มากขึ้น – โดยพื้นฐานแล้วพวกเขาต้องการสิ่งที่ดีที่สุดของ Google Assistant เก่า (การกระทำที่รวดเร็วและแม่นยำ) รวมกับความฉลาดของ Gemini ตัวอย่างเช่น สิ่งต่าง ๆ เช่น การอนุญาตให้ใช้คำสั่งเสียง “Hey Google” ต่อไปและไม่ใช่แค่การตอบสนองที่พูดคุย Google สามารถปรับปรุงโหมดเสียงของ Gemini เพื่อแทนที่ผู้ช่วยรุ่นเก่าอย่างแท้จริงโดยไม่มีการถดถอยของฟีเจอร์

  • ความโปร่งใสและการควบคุม: ผู้ใช้บางคนได้ขอข้อมูลเชิงลึกเพิ่มเติมเกี่ยวกับแหล่งที่มาของ Bard หรือวิธีปรับแต่งสไตล์ของมัน ตัวอย่างเช่น การแสดงว่า Bard กำลังดึงข้อมูลจากผลการค้นหา Google ใด (เพื่อยืนยันความถูกต้อง) – สิ่งที่ Bing Chat ทำโดยการอ้างอิงลิงก์ นอกจากนี้ เนื่องจาก Bard บางครั้งผลิตข้อมูลที่ผิด ผู้ใช้ต้องการความสามารถในการทำเครื่องหมายหรือแก้ไข และในอุดมคติ Bard ควรเรียนรู้จากข้อเสนอแนะนั้นเมื่อเวลาผ่านไป การมีกลไกข้อเสนอแนะที่ง่าย (“ไม่ชอบ – นี่ไม่ถูกต้องเพราะ...”) ที่นำไปสู่การปรับปรุงโมเดลอย่างรวดเร็วจะสร้างความมั่นใจว่า Google กำลังรับฟัง โดยพื้นฐานแล้ว ฟีเจอร์ที่จะทำให้ AI เป็นผู้ช่วยที่ทำงานร่วมกันมากขึ้นแทนที่จะเป็นกล่องดำ

ความต้องการหรือกลุ่มผู้ใช้ที่ยังไม่ได้รับการตอบสนอง

  • ผู้ใช้ที่ต้องการผู้ช่วยส่วนตัวที่เชื่อถือได้: เป็นเรื่องน่าขันที่กลุ่มที่ Google มุ่งเป้า – ผู้ที่ต้องการผู้ช่วยส่วนตัวที่ทรงพลัง – รู้สึกว่าไม่ได้รับการตอบสนองมากที่สุดจาก Gemini ในรูปแบบปัจจุบัน ผู้ใช้ในช่วงแรก ๆ ที่เปิดใช้งาน Assistant ใหม่ที่ใช้ Bard คาดหวังการอัปเกรด แต่หลายคนรู้สึกว่ามันเป็นการลดระดับในแง่ปฏิบัติ ตัวอย่างเช่น หากมีคนต้องการผู้ช่วยเสียงเพื่อ ตอบคำถามเรื่องไม่สำคัญ ตั้งการเตือน ควบคุมอุปกรณ์ และรวมข้อมูลจากบัญชีของพวกเขาอย่างแม่นยำ Gemini มีปัญหา สิ่งนี้ทำให้กลุ่มมืออาชีพที่ยุ่งหรือผู้ที่ชื่นชอบแกดเจ็ต (ที่พึ่งพาผู้ช่วยเพื่อเพิ่มประสิทธิภาพ) รู้สึกว่าความต้องการของพวกเขาไม่ได้รับการตอบสนอง ผู้ใช้คนหนึ่งแสดงความคิดเห็นว่าพวกเขาจะพิจารณาจ่ายเงินสำหรับ “Assistant with Bard” ของ Pixel “หาก [มัน] เหนือกว่า Google Assistant” ซึ่งบ่งบอกว่ามันยังไม่ถึง ดังนั้นกลุ่มนั้นยังคงรอผู้ช่วย AI ที่เชื่อถือได้และมีประโยชน์อย่างแท้จริง – พวกเขาจะกระโดดเข้าหามันหาก Gemini ปรับปรุง

  • ผู้ที่ไม่พูดภาษาอังกฤษเป็นภาษาแม่ / การแปลภาษา: ผลิตภัณฑ์ของ Google มักมีการแปลภาษาที่ยอดเยี่ยม แต่ไม่ชัดเจนว่า Bard/Gemini แข็งแกร่งเท่าเทียมกันในทุกภาษาตั้งแต่เปิดตัวหรือไม่ ผู้ใช้ต่างประเทศบางรายรายงานว่าคำตอบของ Bard ในภาษาพื้นเมืองของพวกเขามีความคล่องแคล่วหรือน่าใช้ประโยชน์น้อยกว่า ผลักดันให้พวกเขากลับไปใช้คู่แข่งในท้องถิ่น หากข้อมูลการฝึกอบรมหรือการเพิ่มประสิทธิภาพของ Gemini ให้ความสำคัญกับภาษาอังกฤษ ผู้ใช้ที่ไม่ใช่ภาษาอังกฤษจะไม่ได้รับการตอบสนอง พวกเขาอาจชอบ ChatGPT หรือโมเดลท้องถิ่นที่ได้ปรับประสิทธิภาพหลายภาษาอย่างชัดเจน นี่เป็นพื้นที่ที่ Google สามารถทำได้ดีตามปกติ (เนื่องจากเทคโนโลยีการแปลของมัน) แต่ข้อเสนอแนะของผู้ใช้เกี่ยวกับเรื่องนี้มีน้อย – น่าจะบ่งบอกว่า Gemini ยังไม่ได้ทำให้ชุมชนเหล่านั้นประทับใจ

  • ลูกค้าองค์กร (จนถึงตอนนี้): องค์กรขนาดใหญ่ยังไม่ได้ใช้ Bard/Gemini อย่างกว้างขวางตามการพูดคุยสาธารณะ มักเป็นเพราะช่องว่างด้านความไว้วางใจและความสามารถ องค์กรต้องการความสม่ำเสมอ การอ้างอิง และการรวมเข้ากับเวิร์กโฟลว์ของพวกเขา (Office 365 รวมเข้ากับเทคโนโลยีของ OpenAI อย่างลึกซึ้งผ่าน MS Copilot ตัวอย่างเช่น) เทียบเท่าของ Google (Duet AI with Gemini) ยังคงพัฒนาอยู่ จนกว่า Gemini/Bard จะพิสูจน์ได้ว่ามันสามารถร่างอีเมล สร้างสไลด์ หรือวิเคราะห์ข้อมูลใน Google Sheets ได้ในระดับที่เทียบเท่าหรือสูงกว่า GPT-4 ผู้ใช้ระดับองค์กรจะรู้สึกว่าโซลูชันของ Google ไม่ตอบสนองความต้องการของพวกเขาอย่างเต็มที่ โพสต์บางรายการใน r/Bard จากมืออาชีพมีลักษณะว่า “ฉันลองใช้ Bard สำหรับงานที่ทำงานแล้ว มันไม่ดีเท่า ChatGPT ดังนั้นเราจะรอดู” นั่นบ่งชี้ว่าผู้ใช้ระดับองค์กรเป็นกลุ่มที่ยังไม่ได้รับการตอบสนองในขณะนี้ – พวกเขาต้องการ AI ที่เข้ากับ Google Workspace และเพิ่มประสิทธิภาพจริง ๆ โดยไม่ต้องตรวจสอบผลลัพธ์อย่างต่อเนื่อง

  • ผู้ใช้ในอีโคซิสเต็มของ Google ที่ต้องการโซลูชันครบวงจร: มีผู้ใช้กลุ่มหนึ่งที่ใช้ Google สำหรับทุกอย่าง (การค้นหา อีเมล เอกสาร) และ จะ ใช้ AI ของ Google อย่างมีความสุขสำหรับความต้องการแชทบอททั้งหมดของพวกเขา – หากมันดีเท่ากัน ตอนนี้ผู้ใช้เหล่านั้น

สมดุลความเป็นส่วนตัวของ AI: วิธีที่บริษัทระดับโลกกำลังนำทางภูมิทัศน์ AI ใหม่

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

การเปลี่ยนแปลงที่ไม่คาดคิดกำลังเกิดขึ้นในโลกของกฎระเบียบ AI: บริษัทแบบดั้งเดิมไม่ใช่แค่ยักษ์ใหญ่ด้านเทคโนโลยีเท่านั้นที่พบว่าตัวเองอยู่ในศูนย์กลางของการถกเถียงเรื่องความเป็นส่วนตัวของ AI ในยุโรป ในขณะที่พาดหัวข่าวมักจะเน้นไปที่บริษัทอย่าง Meta และ Google เรื่องราวที่น่าสนใจกว่าคือวิธีที่บริษัทระดับโลกทั่วไปกำลังนำทางภูมิทัศน์ที่ซับซ้อนของการปรับใช้ AI และความเป็นส่วนตัวของข้อมูล

AI Privacy Balancing Act

กฎระเบียบ AI รูปแบบใหม่

คณะกรรมการคุ้มครองข้อมูลของไอร์แลนด์ (DPC) ได้กลายเป็นผู้ควบคุมความเป็นส่วนตัวของ AI ที่มีอิทธิพลมากที่สุดในยุโรป โดยมีอำนาจพิเศษผ่านกฎระเบียบการคุ้มครองข้อมูลทั่วไปของสหภาพยุโรป (GDPR) ในฐานะหน่วยงานกำกับดูแลหลักสำหรับบริษัทเทคโนโลยีรายใหญ่ส่วนใหญ่ที่มีสำนักงานใหญ่ในยุโรปที่ดับลิน การตัดสินใจของ DPC ส่งผลกระทบต่อภูมิทัศน์เทคโนโลยีระดับโลก ภายใต้กลไก one-stop-shop ของ GDPR คำตัดสินของ DPC เกี่ยวกับการปกป้องข้อมูลสามารถผูกมัดการดำเนินงานของบริษัทในทุก 27 ประเทศสมาชิกสหภาพยุโรปได้อย่างมีประสิทธิภาพ ด้วยค่าปรับสูงถึง 4% ของรายได้ประจำปีทั่วโลกหรือ 20 ล้านยูโร (แล้วแต่จำนวนใดจะสูงกว่า) การกำกับดูแลที่เข้มข้นขึ้นของ DPC เกี่ยวกับการปรับใช้ AI ไม่ใช่แค่อุปสรรคด้านกฎระเบียบอีกประการหนึ่ง แต่กำลังเปลี่ยนแปลงวิธีที่บริษัทระดับโลกเข้าถึงการพัฒนา AI การตรวจสอบนี้ขยายไปไกลกว่าการปกป้องข้อมูลแบบดั้งเดิมไปสู่ดินแดนใหม่: วิธีที่บริษัทฝึกฝนและปรับใช้โมเดล AI โดยเฉพาะอย่างยิ่งเมื่อใช้ข้อมูลผู้ใช้เพื่อการเรียนรู้ของเครื่อง

สิ่งที่ทำให้สิ่งนี้น่าสนใจเป็นพิเศษคือบริษัทเหล่านี้หลายแห่งไม่ใช่ผู้เล่นด้านเทคโนโลยีแบบดั้งเดิม พวกเขาเป็นบริษัทที่มีชื่อเสียงซึ่งบังเอิญใช้ AI เพื่อปรับปรุงการดำเนินงานและประสบการณ์ของลูกค้า ตั้งแต่การบริการลูกค้าไปจนถึงคำแนะนำผลิตภัณฑ์ นี่คือเหตุผลที่เรื่องราวของพวกเขามีความสำคัญ: พวกเขาเป็นตัวแทนของอนาคตที่ทุกบริษัทจะเป็นบริษัท AI

ผลกระทบของ Meta

เพื่อทำความเข้าใจว่าเรามาถึงจุดนี้ได้อย่างไร เราจำเป็นต้องดูความท้าทายด้านกฎระเบียบล่าสุดของ Meta เมื่อ Meta ประกาศว่าพวกเขากำลังใช้โพสต์สาธารณะบน Facebook และ Instagram เพื่อฝึกโมเดล AI มันได้จุดชนวนปฏิกิริยาลูกโซ่ การตอบสนองของ DPC รวดเร็วและรุนแรง โดยปิดกั้น Meta จากการฝึกโมเดล AI ด้วยข้อมูลของยุโรปอย่างมีประสิทธิภาพ บราซิลก็ปฏิบัติตามอย่างรวดเร็ว

นี่ไม่ใช่แค่เรื่องของ Meta เท่านั้น มันสร้างแบบอย่างใหม่: บริษัทใด ๆ ที่ใช้ข้อมูลลูกค้าเพื่อฝึก AI แม้แต่ข้อมูลสาธารณะ จำเป็นต้องระมัดระวัง วันเวลาของ "เคลื่อนไหวอย่างรวดเร็วและทำลายสิ่งต่าง ๆ" ได้สิ้นสุดลงแล้ว อย่างน้อยก็เมื่อพูดถึง AI และข้อมูลผู้ใช้

คู่มือ AI ขององค์กรใหม่

สิ่งที่ให้ความกระจ่างเป็นพิเศษเกี่ยวกับวิธีที่บริษัทระดับโลกตอบสนองคือกรอบการทำงานที่เกิดขึ้นใหม่สำหรับการพัฒนา AI อย่างมีความรับผิดชอบ:

  1. การบรรยายสรุปล่วงหน้ากับหน่วยงานกำกับดูแล: บริษัทต่าง ๆ กำลังมีส่วนร่วมกับหน่วยงานกำกับดูแลอย่างแข็งขันก่อนที่จะปรับใช้ฟีเจอร์ AI ที่สำคัญ แม้ว่าสิ่งนี้อาจทำให้การพัฒนาช้าลง แต่ก็สร้างเส้นทางที่ยั่งยืนไปข้างหน้า

  2. การควบคุมของผู้ใช้: การใช้งานกลไกการเลือกไม่ใช้ที่แข็งแกร่งทำให้ผู้ใช้สามารถควบคุมวิธีการใช้ข้อมูลของพวกเขาในการฝึก AI

  3. การทำให้ไม่ระบุตัวตนและการรักษาความเป็นส่วนตัว: การแก้ปัญหาทางเทคนิค เช่น ความเป็นส่วนตัวที่แตกต่างและเทคนิคการทำให้ไม่ระบุตัวตนที่ซับซ้อนกำลังถูกนำมาใช้เพื่อปกป้องข้อมูลผู้ใช้ในขณะที่ยังคงเปิดใช้งานนวัตกรรม AI

  4. การจัดทำเอกสารและการให้เหตุผล: การจัดทำเอกสารอย่างละเอียดและการประเมินผลกระทบกำลังกลายเป็นส่วนมาตรฐานของกระบวนการพัฒนา สร้างความรับผิดชอบและความโปร่งใส

เส้นทางข้างหน้า

นี่คือสิ่งที่ทำให้ฉันมองในแง่ดี: เรากำลังเห็นการเกิดขึ้นของกรอบการทำงานที่ใช้งานได้จริงสำหรับการพัฒนา AI อย่างมีความรับผิดชอบ ใช่ มีข้อจำกัดและกระบวนการใหม่ ๆ ที่ต้องนำทาง แต่รั้วกั้นเหล่านี้ไม่ได้หยุดนวัตกรรม แต่กำลังชี้นำไปในทิศทางที่ยั่งยืนมากขึ้น

บริษัทที่ทำสิ่งนี้ได้ถูกต้องจะได้เปรียบในการแข่งขันอย่างมาก พวกเขาจะสร้างความไว้วางใจกับผู้ใช้และหน่วยงานกำกับดูแล ทำให้สามารถปรับใช้ฟีเจอร์ AI ได้เร็วขึ้นในระยะยาว ประสบการณ์ของผู้ที่เริ่มใช้ก่อนแสดงให้เราเห็นว่าแม้ภายใต้การตรวจสอบด้านกฎระเบียบที่เข้มงวด ก็ยังสามารถสร้างนวัตกรรมด้วย AI ต่อไปได้ในขณะที่เคารพข้อกังวลด้านความเป็นส่วนตัว

สิ่งนี้หมายถึงอะไรสำหรับอนาคต

นัยของมันขยายออกไปไกลกว่าภาคเทคโนโลยี เมื่อ AI กลายเป็นเรื่องธรรมดา ทุกบริษัทจะต้องต่อสู้กับปัญหาเหล่านี้ บริษัทที่ประสบความสำเร็จจะเป็นบริษัทที่:

  • สร้างข้อพิจารณาด้านความเป็นส่วนตัวในการพัฒนา AI ของพวกเขาตั้งแต่วันแรก
  • ลงทุนในโซลูชันทางเทคนิคสำหรับการปกป้องข้อมูล
  • สร้างกระบวนการที่โปร่งใสสำหรับการควบคุมของผู้ใช้และการใช้ข้อมูล
  • รักษาการสนทนาแบบเปิดกับหน่วยงานกำกับดูแล

ภาพรวมที่ใหญ่กว่า

สิ่งที่เกิดขึ้นที่นี่ไม่ใช่แค่เรื่องการปฏิบัติตามหรือกฎระเบียบเท่านั้น มันเกี่ยวกับการสร้างระบบ AI ที่ผู้คนสามารถไว้วางใจได้ และนั่นเป็นสิ่งสำคัญสำหรับความสำเร็จในระยะยาวของเทคโนโลยี AI

บริษัทที่มองว่ากฎระเบียบด้านความเป็นส่วนตัวไม่ใช่อุปสรรค แต่เป็นข้อจำกัดในการออกแบบจะเป็นบริษัทที่ประสบความสำเร็จในยุคใหม่นี้ พวกเขาจะสร้างผลิตภัณฑ์ที่ดีกว่า ได้รับความไว้วางใจมากขึ้น และในที่สุดก็สร้างมูลค่าได้มากขึ้น

สำหรับผู้ที่กังวลว่ากฎระเบียบด้านความเป็นส่วนตัวจะขัดขวางนวัตกรรม AI หลักฐานในช่วงแรก ๆ ชี้ให้เห็นเป็นอย่างอื่น มันแสดงให้เราเห็นว่าด้วยแนวทางที่ถูกต้อง เราสามารถมีทั้งระบบ AI ที่ทรงพลังและการปกป้องความเป็นส่วนตัวที่แข็งแกร่ง นั่นไม่ใช่แค่จริยธรรมที่ดี แต่เป็นธุรกิจที่ดีด้วย

Ambient: จุดตัดของ AI และ Web3 - การวิเคราะห์เชิงวิพากษ์ของการบูรณาการตลาดในปัจจุบัน

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

เมื่อเทคโนโลยีพัฒนาไป มีเพียงไม่กี่แนวโน้มที่เปลี่ยนแปลงและเชื่อมโยงกันได้เท่ากับปัญญาประดิษฐ์ (AI) และ Web3 ในช่วงไม่กี่ปีที่ผ่านมา ทั้งบริษัทใหญ่และสตาร์ทอัพต่างพยายามผสมผสานเทคโนโลยีเหล่านี้เพื่อเปลี่ยนแปลงไม่เพียงแค่โมเดลการเงินและการปกครอง แต่ยังรวมถึงภูมิทัศน์ของการผลิตสร้างสรรค์ด้วย ที่แกนกลางของมัน การบูรณาการ AI และ Web3 ท้าทายสถานะเดิม สัญญาประสิทธิภาพการดำเนินงาน ความปลอดภัยที่สูงขึ้น และโมเดลธุรกิจใหม่ที่คืนอำนาจกลับไปยังมือของผู้สร้างและผู้ใช้ รายงานนี้จะแยกแยะการบูรณาการตลาดในปัจจุบัน ตรวจสอบกรณีศึกษาที่สำคัญ และพูดถึงทั้งโอกาสและความท้าทายของการบรรจบกันนี้ ตลอดทั้งนี้ เรารักษามุมมองที่มุ่งไปข้างหน้า ขับเคลื่อนด้วยข้อมูล แต่ยังคงวิพากษ์วิจารณ์ ซึ่งจะสะท้อนกับผู้ตัดสินใจที่ชาญฉลาดและประสบความสำเร็จและผู้สร้างนวัตกรรม

Ambient: จุดตัดของ AI และ Web3 - การวิเคราะห์เชิงวิพากษ์ของการบูรณาการตลาดในปัจจุบัน

บทนำ

ยุคดิจิทัลถูกกำหนดโดยการสร้างใหม่อย่างต่อเนื่อง ด้วยการมาถึงของเครือข่ายแบบกระจายศูนย์ (Web3) และการเร่งความเร็วของปัญญาประดิษฐ์ วิธีที่เรามีปฏิสัมพันธ์กับเทคโนโลยีกำลังถูกสร้างใหม่อย่างรุนแรง คำมั่นสัญญาของ Web3 ในการควบคุมผู้ใช้และความไว้วางใจที่ได้รับการสนับสนุนจากบล็อกเชนตอนนี้พบว่าตัวเองได้รับการเสริมด้วยความสามารถในการวิเคราะห์และอัตโนมัติของ AI พันธมิตรนี้ไม่เพียงแค่เป็นเทคโนโลยีเท่านั้น แต่ยังเป็นวัฒนธรรมและเศรษฐกิจที่กำหนดอุตสาหกรรมใหม่ตั้งแต่การเงินและบริการผู้บริโภคไปจนถึงศิลปะและประสบการณ์ดิจิทัลที่สมจริง

ที่ Cuckoo Network ซึ่งภารกิจของเราคือการขับเคลื่อนการปฏิวัติสร้างสรรค์ผ่านเครื่องมือ AI แบบกระจายศูนย์ การบูรณาการนี้เปิดประตูสู่ระบบนิเวศที่มีชีวิตชีวาสำหรับผู้สร้างและผู้สร้าง เรากำลังเป็นพยานถึงการเปลี่ยนแปลงที่เป็นธรรมชาติที่ความคิดสร้างสรรค์กลายเป็นการผสมผสานระหว่างศิลปะ โค้ด และระบบอัตโนมัติอัจฉริยะ—ปูทางสู่อนาคตที่ใครๆ ก็สามารถใช้พลังดึงดูดของ AI แบบกระจายศูนย์ได้ ในสภาพแวดล้อมนี้ นวัตกรรมเช่นการสร้างศิลปะที่ขับเคลื่อนด้วย AI และทรัพยากรการประมวลผลแบบกระจายศูนย์ไม่เพียงแต่ปรับปรุงประสิทธิภาพเท่านั้น แต่ยังเปลี่ยนโครงสร้างของวัฒนธรรมดิจิทัลอีกด้วย

การบรรจบกันของ AI และ Web3: การร่วมมือและแรงกระตุ้นของตลาด

โครงการริเริ่มที่สำคัญและความร่วมมือเชิงกลยุทธ์

การพัฒนาล่าสุดเน้นแนวโน้มการเร่งความเร็วของการร่วมมือข้ามสาขาวิชา:

  • ความร่วมมือระหว่าง Deutsche Telekom และ Fetch.ai Foundation: ในการเคลื่อนไหวที่เป็นสัญลักษณ์ของการผสมผสานระหว่างโทรคมนาคมแบบดั้งเดิมและสตาร์ทอัพเทคโนโลยีรุ่นใหม่ บริษัทลูก MMS ของ Deutsche Telekom ได้ร่วมมือกับ Fetch.ai Foundation ในต้นปี 2024 โดยการใช้ตัวแทนอัตโนมัติที่ขับเคลื่อนด้วย AI เป็นผู้ตรวจสอบในเครือข่ายแบบกระจายศูนย์ พวกเขามุ่งหวังที่จะเพิ่มประสิทธิภาพ ความปลอดภัย และความสามารถในการขยายของบริการแบบกระจายศูนย์ โครงการนี้เป็นสัญญาณที่ชัดเจนต่อตลาด: การผสมผสาน AI กับบล็อกเชนสามารถปรับปรุงพารามิเตอร์การดำเนินงานและความไว้วางใจของผู้ใช้ในเครือข่ายแบบกระจายศูนย์ เรียนรู้เพิ่มเติม

  • ความร่วมมือระหว่าง Petoshi และ EMC Protocol: ในทำนองเดียวกัน Petoshi—แพลตฟอร์ม 'tap to earn' ได้ร่วมมือกับ EMC Protocol การร่วมมือของพวกเขามุ่งเน้นไปที่การทำให้นักพัฒนาสามารถเชื่อมช่องว่างระหว่างแอปพลิเคชันแบบกระจายศูนย์ที่ใช้ AI (dApps) และพลังการประมวลผลที่มักจะท้าทายที่จำเป็นในการทำให้พวกเขาทำงานได้อย่างมีประสิทธิภาพ การเกิดขึ้นเป็นโซลูชันต่อความท้าทายด้านการขยายตัวในระบบนิเวศ dApp ที่ขยายตัวอย่างรวดเร็ว ความร่วมมือนี้เน้นว่าประสิทธิภาพเมื่อขับเคลื่อนด้วย AI สามารถเพิ่มการดำเนินการสร้างสรรค์และเชิงพาณิชย์ได้อย่างมีนัยสำคัญ ค้นพบการบูรณาการ

  • การสนทนาในอุตสาหกรรม: ในงานใหญ่เช่น Axios BFD New York 2024 ผู้นำในอุตสาหกรรมเช่นผู้ร่วมก่อตั้ง Ethereum Joseph Lubin ได้เน้นบทบาทที่เสริมกันของ AI และ Web3 การสนทนาเหล่านี้ได้ทำให้แนวคิดที่ว่าในขณะที่ AI สามารถขับเคลื่อนการมีส่วนร่วมผ่านเนื้อหาที่ปรับให้เหมาะสมและการวิเคราะห์อัจฉริยะ Web3 มอบพื้นที่ที่ปลอดภัยและควบคุมโดยผู้ใช้สำหรับนวัตกรรมเหล่านี้ให้เจริญเติบโต ดูสรุปเหตุการณ์

แนวโน้มการลงทุนและการลงทุนร่วม

แนวโน้มการลงทุนส่องสว่างการบรรจบกันนี้:

  • การเพิ่มขึ้นของการลงทุนใน AI: ในปี 2023 สตาร์ทอัพ AI ได้รับการสนับสนุนอย่างมาก—ผลักดันให้การลงทุนร่วมในสหรัฐฯ เพิ่มขึ้น 30% การระดมทุนรอบใหญ่สำหรับบริษัทเช่น OpenAI และ xAI ของ Elon Musk ได้เน้นความเชื่อมั่นของนักลงทุนในศักยภาพการเปลี่ยนแปลงของ AI คาดว่าบริษัทเทคโนโลยีใหญ่จะผลักดันการใช้จ่ายด้านทุนเกินกว่า 200 พันล้านดอลลาร์ในโครงการที่เกี่ยวข้องกับ AI ในปี 2024 และต่อไป Reuters

  • พลวัตการลงทุนใน Web3: ในทางกลับกัน ภาค Web3 ได้เผชิญกับการตกต่ำชั่วคราวโดยมีการลดลง 79% ในการลงทุนร่วมในไตรมาสแรกของปี 2023—การตกต่ำที่ถูกมองว่าเป็นการปรับตัวใหม่มากกว่าการลดลงในระยะยาว แม้จะมีสิ่งนี้ การลงทุนทั้งหมดในปี 2023 ถึง 9.043 พันล้านดอลลาร์ โดยมีการลงทุนจำนวนมากในโครงสร้างพื้นฐานขององค์กรและความปลอดภัยของผู้ใช้ การแสดงที่แข็งแกร่งของ Bitcoin รวมถึงการเพิ่มขึ้น 160% ต่อปี เป็นตัวอย่างเพิ่มเติมของความยืดหยุ่นของตลาดในพื้นที่บล็อกเชน RootData

ร่วมกัน แนวโน้มเหล่านี้วาดภาพของระบบนิเวศเทคโนโลยีที่แรงกระตุ้นกำลังเปลี่ยนไปสู่การบูรณาการ AI ภายในกรอบการทำงานแบบกระจายศูนย์—กลยุทธ์ที่ไม่เพียงแต่แก้ไขประสิทธิภาพที่มีอยู่ แต่ยังปลดล็อกแหล่งรายได้ใหม่และศักยภาพสร้างสรรค์ทั้งหมด

ประโยชน์ของการรวม AI และ Web3

การเพิ่มความปลอดภัยและการจัดการข้อมูลแบบกระจายศูนย์

หนึ่งในประโยชน์ที่น่าสนใจที่สุดของการรวม AI กับ Web3 คือผลกระทบที่ลึกซึ้งต่อความปลอดภัยและความสมบูรณ์ของข้อมูล อัลกอริธึม AI—เมื่อฝังอยู่ในเครือข่ายแบบกระจายศูนย์—สามารถตรวจสอบและวิเคราะห์ธุรกรรมบล็อกเชนเพื่อระบุและขัดขวางกิจกรรมฉ้อโกงในเวลาจริง เทคนิคเช่นการตรวจจับความผิดปกติ การประมวลผลภาษาธรรมชาติ (NLP) และการวิเคราะห์พฤติกรรมถูกใช้เพื่อระบุความผิดปกติ เพื่อให้แน่ใจว่าทั้งผู้ใช้และโครงสร้างพื้นฐานยังคงปลอดภัย ตัวอย่างเช่น บทบาทของ AI ในการปกป้องสัญญาอัจฉริยะจากช่องโหว่เช่นการโจมตีซ้ำซ้อนและการจัดการบริบทได้พิสูจน์แล้วว่ามีคุณค่าในการปกป้องสินทรัพย์ดิจิทัล

ยิ่งไปกว่านั้น ระบบแบบกระจายศูนย์เจริญเติบโตบนความโปร่งใส บัญชีแยกประเภทที่ไม่สามารถเปลี่ยนแปลงได้ของ Web3 ให้เส้นทางการตรวจสอบสำหรับการตัดสินใจของ AI ซึ่งมีประสิทธิภาพในการทำให้ธรรมชาติ 'กล่องดำ' ของอัลกอริธึมหลายตัวเป็นที่เข้าใจได้ ความร่วมมือนี้มีความสำคัญโดยเฉพาะในแอปพลิเคชันสร้างสรรค์และการเงินที่ความไว้วางใจเป็นสกุลเงินที่สำคัญ เรียนรู้เพิ่มเติมเกี่ยวกับความปลอดภัยที่เพิ่มขึ้นด้วย AI

การปฏิวัติประสิทธิภาพการดำเนินงานและความสามารถในการขยาย

AI ไม่เพียงแต่เป็นเครื่องมือสำหรับความปลอดภัย—มันเป็นเครื่องยนต์ที่แข็งแกร่งสำหรับประสิทธิภาพการดำเนินงาน ในเครือข่ายแบบกระจายศูนย์ ตัวแทน AI สามารถเพิ่มประสิทธิภาพการจัดสรรทรัพยากรการประมวลผล เพื่อให้แน่ใจว่าภาระงานมีความสมดุลและการใช้พลังงานลดลง ตัวอย่างเช่น โดยการทำนายโหนดที่เหมาะสมที่สุดสำหรับการตรวจสอบธุรกรรม อัลกอริธึม AI จะเพิ่มความสามารถในการขยายของโครงสร้างพื้นฐานบล็อกเชน ประสิทธิภาพนี้ไม่เพียงแต่นำไปสู่ต้นทุนการดำเนินงานที่ต่ำลง แต่ยังปูทางสำหรับการปฏิบัติที่ยั่งยืนมากขึ้นในสภาพแวดล้อมบล็อกเชน

นอกจากนี้ เมื่อแพลตฟอร์มมองหาการใช้พลังการประมวลผลแบบกระจาย ความร่วมมือเช่นระหว่าง Petoshi และ EMC Protocol แสดงให้เห็นว่า AI สามารถทำให้การเข้าถึงทรัพยากรการประมวลผลแบบกระจายศูนย์ของแอปพลิเคชันแบบกระจายศูนย์ได้อย่างไร ความสามารถนี้มีความสำคัญสำหรับการขยายตัวอย่างรวดเร็วและในการรักษาคุณภาพของบริการเมื่อการยอมรับของผู้ใช้เติบโต—ปัจจัยสำคัญสำหรับนักพัฒนาและธุรกิจที่ต้องการสร้าง dApps ที่แข็งแกร่ง

แอปพลิเคชันสร้างสรรค์ที่เปลี่ยนแปลง: กรณีศึกษาในศิลปะ เกม และการสร้างเนื้อหาอัตโนมัติ

บางทีขอบเขตที่น่าตื่นเต้นที่สุดคือผลกระทบที่เปลี่ยนแปลงของการบรรจบกันของ AI และ Web3 ต่ออุตสาหกรรมสร้างสรรค์ ลองสำรวจกรณีศึกษาไม่กี่กรณี:

  1. ศิลปะและ NFTs: แพลตฟอร์มเช่น "Eponym" ของ Art AI ได้สร้างความฮือฮาในโลกของศิลปะดิจิทัล เดิมเปิดตัวเป็นโซลูชันอีคอมเมิร์ซ Eponym ได้เปลี่ยนไปสู่โมเดล Web3 โดยให้นักศิลปะและนักสะสมสามารถสร้างงานศิลปะที่สร้างโดย AI เป็นโทเค็นที่ไม่สามารถเปลี่ยนแปลงได้ (NFTs) บนบล็อกเชน Ethereum ภายในเวลาเพียง 10 ชั่วโมง แพลตฟอร์มได้สร้างรายได้ 3 ล้านดอลลาร์และกระตุ้นให้เกิดปริมาณตลาดรองกว่า 16 ล้านดอลลาร์ ความก้าวหน้านี้ไม่เพียงแสดงให้เห็นถึงความเป็นไปได้ทางการเงินของศิลปะที่สร้างโดย AI แต่ยังทำให้การแสดงออกทางสร้างสรรค์เป็นประชาธิปไตยโดยการกระจายตลาดศิลปะ อ่านกรณีศึกษา

  2. การสร้างเนื้อหาอัตโนมัติ: Thirdweb ซึ่งเป็นแพลตฟอร์มนักพัฒนาชั้นนำ ได้แสดงให้เห็นถึงประโยชน์ของ AI ในการขยายการผลิตเนื้อหา โดยการรวม AI เพื่อเปลี่ยนวิดีโอ YouTube เป็นคู่มือที่ปรับให้เหมาะสมกับ SEO สร้างกรณีศึกษาจากความคิดเห็นของลูกค้า และผลิตจดหมายข่าวที่น่าสนใจ Thirdweb ได้เพิ่มการผลิตเนื้อหาและประสิทธิภาพ SEO ขึ้นสิบเท่า โมเดลนี้มีความเกี่ยวข้องโดยเฉพาะสำหรับมืออาชีพสร้างสรรค์ที่ต้องการขยายการแสดงตนทางดิจิทัลโดยไม่เพิ่มความพยายามด้วยตนเองตามสัดส่วน ค้นพบผลกระทบ

  3. เกม: ในสาขาเกมที่มีการเปลี่ยนแปลงอย่างรวดเร็ว การกระจายศูนย์และ AI กำลังสร้างโลกเสมือนที่สมจริงและเปลี่ยนแปลงตลอดเวลา เกม Web3 เกมหนึ่งได้รวมระบบ AI หลายตัวเพื่อสร้างเนื้อหาในเกมใหม่โดยอัตโนมัติ—ตั้งแต่ตัวละครไปจนถึงสภาพแวดล้อมที่กว้างขวาง วิธีการนี้ไม่เพียงแต่เพิ่มประสบการณ์การเล่นเกม แต่ยังลดการพึ่งพาการพัฒนามนุษย์อย่างต่อเนื่อง เพื่อให้แน่ใจว่าเกมสามารถพัฒนาได้เองตามธรรมชาติเมื่อเวลาผ่านไป ดูการบูรณาการในทางปฏิบัติ

  4. การแลกเปลี่ยนข้อมูลและตลาดการทำนาย: นอกเหนือจากแอปพลิเคชันสร้างสรรค์แบบดั้งเดิม แพลตฟอร์มที่เน้นข้อมูลเช่น Ocean Protocol ใช้ AI เพื่อวิเคราะห์ข้อมูลซัพพลายเชนที่แชร์ เพิ่มประสิทธิภาพการดำเนินงานและแจ้งการตัดสินใจเชิงกลยุทธ์ในอุตสาหกรรมต่างๆ ในทำนองเดียวกัน ตลาดการทำนายเช่น Augur ใช้ AI เพื่อวิเคราะห์ข้อมูลจากแหล่งที่หลากหลายอย่างแข็งแกร่ง ปรับปรุงความแม่นยำของผลลัพธ์ของเหตุการณ์—ซึ่งจะช่วยเพิ่มความไว้วางใจในระบบการเงินแบบกระจายศูนย์ สำรวจตัวอย่างเพิ่มเติม

กรณีศึกษาเหล่านี้ทำหน้าที่เป็นหลักฐานที่ชัดเจนว่าความสามารถในการขยายและศักยภาพนวัตกรรมของ AI แบบกระจายศูนย์ไม่ได้จำกัดอยู่ในภาคส่วนเดียว แต่กำลังมีผลกระทบต่ออุตสาหกรรมสร้างสรรค์ การเงิน และผู้บริโภค

ความท้าทายและข้อควรพิจารณา

แม้ว่าคำมั่นสัญญาของการบูรณาการ AI และ Web3 จะมีมาก แต่ก็มีความท้าทายหลายประการที่ต้องพิจารณาอย่างรอบคอบ:

ความเป็นส่วนตัวของข้อมูลและความซับซ้อนทางกฎระเบียบ

Web3 ได้รับการยกย่องในเรื่องการเน้นความเป็นเจ้าของข้อมูลและความโปร่งใส อย่างไรก็ตาม ความสำเร็จของ AI ขึ้นอยู่กับการเข้าถึงข้อมูลจำนวนมาก—ข้อกำหนดที่อาจขัดแย้งกับโปรโตคอลบล็อกเชนที่รักษาความเป็นส่วนตัว ความตึงเครียดนี้ยิ่งซับซ้อนขึ้นโดยกรอบการกำกับดูแลทั่วโลกที่กำลังพัฒนา เมื่อรัฐบาลพยายามสร้างสมดุลระหว่างนวัตกรรมกับการคุ้มครองผู้บริโภค โครงการริเริ่มเช่นกรอบนวัตกรรม SAFE และความพยายามระหว่างประเทศเช่นปฏิญญา Bletchley กำลังปูทางสำหรับการดำเนินการด้านกฎระเบียบที่ระมัดระวังแต่ร่วมกัน เรียนรู้เพิ่มเติมเกี่ยวกับความพยายามด้านกฎระเบียบ

ความเสี่ยงจากการรวมศูนย์ในโลกที่กระจายศูนย์

หนึ่งในความท้าทายที่ขัดแย้งกันมากที่สุดคือการรวมศูนย์ที่อาจเกิดขึ้นของการพัฒนา AI แม้ว่าจริยธรรมของ Web3 คือการกระจายอำนาจ แต่การพัฒนานวัตกรรม AI ส่วนใหญ่อยู่ในมือของผู้เล่นเทคโนโลยีรายใหญ่เพียงไม่กี่ราย ศูนย์กลางการพัฒนาเหล่านี้อาจกำหนดโครงสร้างลำดับชั้นในเครือข่ายที่กระจายศูนย์โดยเนื้อแท้โดยไม่ได้ตั้งใจ ซึ่งบ่อนทำลายหลักการหลักของ Web3 เช่นความโปร่งใสและการควบคุมของชุมชน การบรรเทาสิ่งนี้ต้องการความพยายามแบบโอเพ่นซอร์สและการจัดหาข้อมูลที่หลากหลายเพื่อให้แน่ใจว่าระบบ AI ยังคงยุติธรรมและไม่มีอคติ ค้นพบข้อมูลเชิงลึกเพิ่มเติม

ความซับซ้อนทางเทคนิคและการใช้พลังงาน

การรวม AI เข้ากับสภาพแวดล้อม Web3 ไม่ใช่เรื่องง่าย การรวมระบบที่ซับซ้อนทั้งสองนี้ต้องการทรัพยากรการประมวลผลจำนวนมาก ซึ่งจะทำให้เกิดความกังวลเกี่ยวกับการใช้พลังงานและความยั่งยืนต่อสิ่งแวดล้อม นักพัฒนาและนักวิจัยกำลังสำรวจโมเดล AI ที่ประหยัดพลังงานและวิธีการประมวลผลแบบกระจายอย่างแข็งขัน แต่สิ่งเหล่านี้ยังคงเป็นพื้นที่วิจัยที่เกิดขึ้นใหม่ กุญแจสำคัญคือการสร้างสมดุลระหว่างนวัตกรรมและความยั่งยืน—ความท้าทายที่เรียกร้องให้มีการปรับปรุงเทคโนโลยีอย่างต่อเนื่องและความร่วมมือในอุตสาหกรรม

อนาคตของ AI แบบกระจายศูนย์ในภูมิทัศน์สร้างสรรค์

การบรรจบกันของ AI และ Web3 ไม่ใช่แค่การอัปเกรดทางเทคนิค แต่เป็นการเปลี่ยนแปลงกระบวนทัศน์—ซึ่งแตะต้องมิติทางวัฒนธรรม เศรษฐกิจ และสร้างสรรค์ ที่ Cuckoo Network ภารกิจของเราในการเติมเต็มความหวังด้วย AI แบบกระจายศูนย์ชี้ไปที่อนาคตที่มืออาชีพสร้างสรรค์จะได้รับประโยชน์ที่ไม่เคยมีมาก่อน:

การเสริมพลังเศรษฐกิจของผู้สร้าง

ลองนึกภาพโลกที่ทุกคนที่มีความคิดสร้างสรรค์สามารถเข้าถึงเครื่องมือ AI ที่แข็งแกร่งซึ่งเป็นประชาธิปไตยเหมือนกับเครือข่ายแบบกระจายศูนย์ที่สนับสนุนพวกเขา นี่คือคำมั่นสัญญาของแพลตฟอร์มเช่น Cuckoo Chain—โครงสร้างพื้นฐานแบบกระจายศูนย์ที่ช่วยให้ผู้สร้างสามารถสร้างงานศิลปะ AI ที่น่าทึ่ง มีส่วนร่วมในประสบการณ์การสนทนาที่หลากหลาย และขับเคลื่อนแอปพลิเคชัน Gen AI รุ่นต่อไปโดยใช้ทรัพยากรการประมวลผลส่วนบุคคล ในระบบนิเวศสร้างสรรค์แบบกระจายศูนย์ ศิลปิน นักเขียน และผู้สร้างไม่ต้องพึ่งพาแพลตฟอร์มแบบรวมศูนย์อีกต่อไป แต่พวกเขาดำเนินการในสภาพแวดล้อมที่ควบคุมโดยชุมชนซึ่งนวัตกรรมได้รับการแบ่งปันและสร้างรายได้อย่างเท่าเทียมกันมากขึ้น

การเชื่อมช่องว่างระหว่างเทคโนโลยีและความคิดสร้างสรรค์

การบูรณาการ AI และ Web3 กำลังลบขอบเขตดั้งเดิมระหว่างเทคโนโลยีและศิลปะ เมื่อโมเดล AI เรียนรู้จากชุดข้อมูลแบบกระจายศูนย์ขนาดใหญ่ พวกเขาจะเก่งขึ้นไม่เพียงแต่ในการทำความเข้าใจข้อมูลสร้างสรรค์เท่านั้น แต่ยังรวมถึงการสร้างผลลัพธ์ที่ผลักดันขอบเขตทางศิลปะแบบดั้งเดิมด้วย วิวัฒนาการนี้กำลังสร้างรูปแบบใหม่ของงานฝีมือดิจิทัล—ที่ความคิดสร้างสรรค์ได้รับการปรับปรุงโดยพลังการคำนวณของ AI และความโปร่งใสของบล็อกเชน เพื่อให้แน่ใจว่าการสร้างสรรค์ทุกชิ้นมีความแปลกใหม่และพิสูจน์ได้ว่าเป็นของแท้

บทบาทของมุมมองใหม่และการวิเคราะห์ที่ขับเคลื่อนด้วยข้อมูล

เมื่อเราสำรวจพรมแดนนี้ สิ่งสำคัญคือต้องประเมินความแปลกใหม่และประสิทธิผลของโมเดลและการบูรณาการใหม่ๆ อย่างต่อเนื่อง ผู้นำตลาด แนวโน้มการลงทุนร่วม และการวิจัยทางวิชาการล้วนชี้ไปที่ข้อเท็จจริงหนึ่ง: การบูรณาการ AI และ Web3 อยู่ในช่วงเริ่มต้นแต่ระเบิด การวิเคราะห์ของเราสนับสนุนมุมมองที่ว่า แม้จะมีความท้าทาย เช่น ความเป็นส่วนตัวของข้อมูลและความเสี่ยงจากการรวมศูนย์ แต่การระเบิดสร้างสรรค์ที่ขับเคลื่อนโดย AI แบบกระจายศูนย์จะปูทางไปสู่โอกาสทางเศรษฐกิจและการเปลี่ยนแปลงทางวัฒนธรรมที่ไม่เคยมีมาก่อน การก้าวนำหน้าต้องการการรวมข้อมูลเชิงประจักษ์ การตรวจสอบผลลัพธ์ในโลกแห่งความเป็นจริง และการทำให้แน่ใจว่ากรอบการกำกับดูแลสนับสนุนมากกว่าการขัดขวางนวัตกรรม

บทสรุป

การผสานรวม AI และ Web3 เป็นหนึ่งในแนวโน้มที่มีแนวโน้มและก่อกวนมากที่สุดที่พรมแดนของเทคโนโลยี ตั้งแต่การเพิ่มความปลอดภัยและประสิทธิภาพการดำเนินงานไปจนถึงการทำให้การผลิตสร้างสรรค์เป็นประชาธิปไตยและเสริมพลังให้กับช่างฝีมือดิจิทัลรุ่นใหม่ การบูรณาการเทคโนโลยีเหล่านี้กำลังเปลี่ยนอุตสาหกรรมต่างๆ อย่างไรก็ตาม เมื่อเรามองไปยังอนาคต เส้นทางข้างหน้าไม่ปราศจากความท้าทาย การจัดการกับข้อกังวลด้านกฎระเบียบ เทคนิค และการรวมศูนย์จะมีความสำคัญต่อการใช้ศักยภาพเต็มที่ของ AI แบบกระจายศูนย์

สำหรับผู้สร้างและผู้สร้าง การบรรจบกันนี้เป็นการเรียกร้องให้ดำเนินการ—คำเชิญให้จินตนาการใหม่ถึงโลกที่ระบบกระจายศูนย์ไม่เพียงแต่เสริมพลังนวัตกรรมเท่านั้น แต่ยังขับเคลื่อนการรวมและความยั่งยืนอีกด้วย โดยการใช้ประโยชน์จากกระบวนทัศน์ใหม่ของการกระจายศูนย์ที่เพิ่มขึ้นด้วย AI เราสามารถสร้างอนาคตที่ปลอดภัยและมีประสิทธิภาพพอๆ กับที่สร้างสรรค์และมีความหวัง

เมื่อตลาดยังคงพัฒนาด้วยกรณีศึกษาใหม่ ความร่วมมือเชิงกลยุทธ์ และหลักฐานที่ขับเคลื่อนด้วยข้อมูล สิ่งหนึ่งยังคงชัดเจน: จุดตัดของ AI และ Web3 เป็นมากกว่าแนวโน้ม—มันเป็นรากฐานที่คลื่นลูกใหม่ของนวัตกรรมดิจิทัลจะถูกสร้างขึ้น ไม่ว่าคุณจะเป็นนักลงทุนที่มีประสบการณ์ ผู้ประกอบการด้านเทคโนโลยี หรือผู้สร้างที่มีวิสัยทัศน์ เวลาที่จะยอมรับกระบวนทัศน์นี้คือขณะนี้

ติดตามต่อไปในขณะที่เรายังคงผลักดันไปข้างหน้า สำรวจทุกแง่มุมของการบูรณาการที่น่าตื่นเต้นนี้ ที่ Cuckoo Network เราทุ่มเทเพื่อทำให้โลกมีความหวังมากขึ้นผ่านเทคโนโลยี AI แบบกระจายศูนย์ และเราขอเชิญคุณเข้าร่วมกับเราในการเดินทางที่เปลี่ยนแปลงนี้


อ้างอิง:


โดยการรับรู้ทั้งโอกาสและความท้าทายที่การบรรจบกันนี้ เราไม่เพียงแต่เตรียมตัวเองสำหรับอนาคต แต่ยังสร้างแรงบันดาลใจให้เกิดการเคลื่อนไหวไปสู่ระบบนิเวศดิจิทัลที่กระจายศูนย์และสร้างสรรค์มากขึ้น

นักออกแบบในเครื่องจักร: AI กำลังเปลี่ยนแปลงการสร้างผลิตภัณฑ์อย่างไร

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

เรากำลังเป็นพยานต่อการเปลี่ยนแปลงครั้งใหญ่ในกระบวนการสร้างสรรค์ดิจิทัล ยุคที่การออกแบบและพัฒนาผลิตภัณฑ์พึ่งพากระบวนการที่ขับเคลื่อนโดยมนุษย์เพียงอย่างเดียวได้หายไปแล้ว วันนี้ AI ไม่ได้เพียงแค่ทำงานอัตโนมัติ แต่ยังกลายเป็นคู่คิดสร้างสรรค์ที่เปลี่ยนแปลงวิธีที่เราออกแบบ เขียนโค้ด และปรับแต่งผลิตภัณฑ์

แต่สิ่งนี้หมายความว่าอย่างไรสำหรับนักออกแบบ นักพัฒนา และผู้ก่อตั้ง? AI เป็นภัยคุกคามหรือพลังพิเศษ? และเครื่องมือใดที่ให้ผลลัพธ์ที่แท้จริง? มาสำรวจกัน

สแต็กการออกแบบ AI ใหม่: จากแนวคิดสู่โค้ด

AI กำลังเปลี่ยนแปลงทุกขั้นตอนของการสร้างผลิตภัณฑ์ นี่คือวิธีการ:

1. การสร้าง UI/UX: จากผืนผ้าใบเปล่าสู่การออกแบบที่ขับเคลื่อนด้วยคำสั่ง

เครื่องมืออย่าง Galileo AI และ Uizard เปลี่ยนคำสั่งข้อความเป็นการออกแบบ UI ที่สมบูรณ์ในไม่กี่วินาที ตัวอย่างเช่น คำสั่ง “ออกแบบหน้าหลักของแอปหาคู่ที่ทันสมัย” สามารถสร้างจุดเริ่มต้นได้ ช่วยให้นักออกแบบไม่ต้องเริ่มจากศูนย์

สิ่งนี้เปลี่ยนบทบาทของนักออกแบบจากผู้จัดการพิกเซลเป็นวิศวกรคำสั่งและผู้ดูแล แพลตฟอร์มอย่าง Figma และ Adobe ก็กำลังรวมฟีเจอร์ AI (เช่น Smart Selection, Auto Layout) เพื่อทำให้การทำงานซ้ำซากง่ายขึ้น ช่วยให้นักออกแบบมุ่งเน้นที่ความคิดสร้างสรรค์และการปรับแต่ง

2. การสร้างโค้ด: AI ในฐานะคู่คิดการเขียนโค้ดของคุณ

GitHub Copilot ซึ่งมีผู้ใช้งานกว่า 1.3 ล้านคน เป็นตัวอย่างของผลกระทบของ AI ต่อการเขียนโค้ด มันไม่ได้เพียงแค่เติมบรรทัดให้สมบูรณ์ แต่ยังสร้างฟังก์ชันทั้งหมดตามบริบท เพิ่มประสิทธิภาพการทำงานขึ้น 55% นักพัฒนาบรรยายว่ามันเป็นโปรแกรมเมอร์รุ่นเยาว์ที่ไม่รู้จักเหน็ดเหนื่อยที่รู้จักทุกไลบรารี

ทางเลือกอื่นอย่าง Amazon’s CodeWhisperer (เหมาะสำหรับสภาพแวดล้อม AWS) และ Tabnine (เน้นความเป็นส่วนตัว) เสนอวิธีแก้ปัญหาที่ปรับแต่งได้ ผลลัพธ์คือวิศวกรใช้เวลาน้อยลงกับโค้ดที่ซ้ำซากและมากขึ้นกับการแก้ปัญหาที่ไม่ซ้ำกัน

3. การทดสอบและวิจัย: การทำนายพฤติกรรมผู้ใช้

เครื่องมือ AI อย่าง Attention Insight และ Neurons ทำนายการโต้ตอบของผู้ใช้ก่อนที่การทดสอบจะเริ่มต้น สร้างแผนที่ความร้อนและระบุปัญหาที่อาจเกิดขึ้น สำหรับข้อมูลเชิงคุณภาพ แพลตฟอร์มอย่าง MonkeyLearn และ Dovetail วิเคราะห์ข้อเสนอแนะของผู้ใช้ในระดับใหญ่ ค้นหารูปแบบและความรู้สึกในไม่กี่นาที

4. การปรับแต่ง: การปรับประสบการณ์ในระดับใหญ่

AI กำลังนำการปรับแต่งไปไกลกว่าการแนะนำ เครื่องมืออย่าง Dynamic Yield และ Adobe Target ช่วยให้ส่วนต่อประสานปรับเปลี่ยนได้ตามพฤติกรรมของผู้ใช้—จัดระเบียบการนำทาง ปรับการแจ้งเตือน และอื่นๆ ระดับของการปรับแต่งนี้ซึ่งเคยสงวนไว้สำหรับยักษ์ใหญ่ด้านเทคโนโลยี ตอนนี้สามารถเข้าถึงได้สำหรับทีมขนาดเล็ก

ผลกระทบในโลกจริง: ความเร็ว ขนาด และความคิดสร้างสรรค์

1. การทำซ้ำที่เร็วขึ้น

AI บีบอัดระยะเวลาอย่างมาก ผู้ก่อตั้งรายงานว่าจากแนวคิดสู่ต้นแบบในไม่กี่วัน ไม่ใช่สัปดาห์ ความเร็วนี้กระตุ้นให้เกิดการทดลองและลดต้นทุนของความล้มเหลว ส่งเสริมนวัตกรรมที่กล้าหาญ

2. ทำมากขึ้นด้วยน้อยลง

AI ทำหน้าที่เป็นตัวคูณแรง ช่วยให้ทีมเล็กๆ ทำสิ่งที่เคยต้องการกลุ่มใหญ่ นักออกแบบสามารถสำรวจแนวคิดหลายๆ อย่างในเวลาที่ใช้ในการสร้างแนวคิดเดียว ขณะที่นักพัฒนารักษาฐานโค้ดได้อย่างมีประสิทธิภาพมากขึ้น

3. ความร่วมมือสร้างสรรค์ใหม่

AI ไม่ได้เพียงแค่ทำงาน—มันเสนอแนวทางใหม่ๆ อย่างที่นักออกแบบคนหนึ่งกล่าวไว้ว่า “AI เสนอวิธีการที่ฉันไม่เคยพิจารณา ทำให้ฉันหลุดพ้นจากรูปแบบของฉัน” ความร่วมมือนี้ขยายความคิดสร้างสรรค์ของมนุษย์แทนที่จะมาแทนที่

สิ่งที่ AI ไม่สามารถแทนที่ได้: ข้อได้เปรียบของมนุษย์

แม้จะมีความสามารถ แต่ AI ยังขาดในบางด้าน:

  1. การคิดเชิงกลยุทธ์: AI ไม่สามารถกำหนดเป้าหมายทางธุรกิจหรือเข้าใจความต้องการของผู้ใช้อย่างลึกซึ้ง
  2. ความเห็นอกเห็นใจ: มันไม่สามารถเข้าใจผลกระทบทางอารมณ์ของการออกแบบได้
  3. บริบททางวัฒนธรรม: การออกแบบที่สร้างโดย AI มักจะรู้สึกทั่วไป ขาดความละเอียดอ่อนทางวัฒนธรรมที่นักออกแบบมนุษย์นำมา
  4. การประกันคุณภาพ: โค้ดที่สร้างโดย AI อาจมีข้อบกพร่องหรือช่องโหว่ที่ละเอียดอ่อน ต้องการการตรวจสอบจากมนุษย์

ทีมที่ประสบความสำเร็จมากที่สุดมองว่า AI เป็นการเสริม ไม่ใช่การทำงานอัตโนมัติ—จัดการงานประจำขณะที่มนุษย์มุ่งเน้นที่ความคิดสร้างสรรค์ การตัดสิน และการเชื่อมต่อ

ขั้นตอนปฏิบัติสำหรับทีม

  1. เริ่มต้นเล็กๆ: ใช้ AI สำหรับการสร้างแนวคิดและงานที่มีความเสี่ยงต่ำก่อนที่จะรวมเข้ากับกระบวนการทำงานที่สำคัญ
  2. เชี่ยวชาญการออกแบบคำสั่ง: การสร้างคำสั่งที่มีประสิทธิภาพกำลังกลายเป็นทักษะที่สำคัญพอๆ กับทักษะการออกแบบหรือการเขียนโค้ดแบบดั้งเดิม
  3. ตรวจสอบผลลัพธ์ของ AI: กำหนดโปรโตคอลเพื่อยืนยันการออกแบบและโค้ดที่สร้างโดย AI โดยเฉพาะสำหรับฟังก์ชันที่มีความสำคัญด้านความปลอดภัย
  4. วัดผลกระทบ: ติดตามเมตริกเช่นความเร็วในการทำซ้ำและผลลัพธ์ของนวัตกรรมเพื่อหาปริมาณประโยชน์ของ AI
  5. ผสมผสานวิธีการ: ใช้ AI ในที่ที่มันเก่ง แต่ไม่บังคับให้มันเข้าสู่งานที่เหมาะสมกับวิธีการแบบดั้งเดิมมากกว่า

อะไรต่อไป? อนาคตของ AI ในการออกแบบ

  1. การรวมการออกแบบและการพัฒนาที่แน่นแฟ้นขึ้น: เครื่องมือจะเชื่อมช่องว่างระหว่าง Figma และโค้ด ทำให้การเปลี่ยนแปลงจากการออกแบบไปยังส่วนประกอบที่ใช้งานได้อย่างราบรื่น
  2. AI ที่รับรู้บริบท: เครื่องมือในอนาคตจะปรับการออกแบบให้สอดคล้องกับมาตรฐานแบรนด์ ข้อมูลผู้ใช้ และเป้าหมายทางธุรกิจ
  3. การปรับแต่งที่รุนแรง: ส่วนต่อประสานจะปรับเปลี่ยนตามผู้ใช้แต่ละคน กำหนดนิยามใหม่ของวิธีที่เรามีปฏิสัมพันธ์กับซอฟต์แวร์

บทสรุป: ผู้สร้างที่เสริมพลัง

AI ไม่ได้มาแทนที่ความคิดสร้างสรรค์ของมนุษย์—มันกำลังพัฒนา โดยการจัดการงานประจำและขยายขอบเขตความเป็นไปได้ AI ช่วยให้นักออกแบบและนักพัฒนามุ่งเน้นที่สิ่งที่สำคัญจริงๆ: การสร้างผลิตภัณฑ์ที่ตอบสนองความต้องการและอารมณ์ของมนุษย์

อนาคตเป็นของ ผู้สร้างที่เสริมพลัง—ผู้ที่ใช้ AI เป็นคู่คิด ผสมผสานความเฉลียวฉลาดของมนุษย์กับปัญญาของเครื่องจักรเพื่อสร้างผลิตภัณฑ์ที่ดีกว่า เร็วกว่า และมีความหมายมากขึ้น

เมื่อ AI ก้าวหน้า องค์ประกอบของมนุษย์ไม่เพียงแค่ไม่สำคัญน้อยลง แต่กลับมีความสำคัญมากขึ้น เทคโนโลยีเปลี่ยนแปลง แต่ความต้องการในการเชื่อมต่อกับผู้ใช้ยังคงอยู่ตลอด นั่นคืออนาคตที่ควรค่าแก่การยอมรับ

การทำลายอุปสรรคบริบทของ AI: ทำความเข้าใจโปรโตคอลบริบทของโมเดล

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

เรามักพูดถึงโมเดลที่ใหญ่ขึ้น หน้าต่างบริบทที่กว้างขึ้น และพารามิเตอร์ที่มากขึ้น แต่การบุกเบิกที่แท้จริงอาจไม่เกี่ยวกับขนาดเลย โปรโตคอลบริบทของโมเดล (MCP) แสดงถึงการเปลี่ยนแปลงแนวคิดในวิธีที่ผู้ช่วย AI โต้ตอบกับโลกภายนอก และมันกำลังเกิดขึ้นในขณะนี้

สถาปัตยกรรม MCP

ปัญหาที่แท้จริงกับผู้ช่วย AI

นี่คือสถานการณ์ที่นักพัฒนาทุกคนรู้จัก: คุณกำลังใช้ผู้ช่วย AI เพื่อช่วยแก้ไขข้อบกพร่องของโค้ด แต่ไม่สามารถเห็นที่เก็บของคุณได้ หรือคุณถามเกี่ยวกับข้อมูลตลาด แต่ความรู้ของมันล้าสมัยไปหลายเดือน ข้อจำกัดพื้นฐานไม่ใช่ความฉลาดของ AI—แต่เป็นความไม่สามารถเข้าถึงโลกจริงได้

โมเดลภาษาขนาดใหญ่ (LLMs) เป็นเหมือนนักวิชาการที่ยอดเยี่ยมที่ถูกขังอยู่ในห้องพร้อมกับข้อมูลการฝึกอบรมเท่านั้น ไม่ว่าพวกเขาจะฉลาดแค่ไหน พวกเขาก็ไม่สามารถตรวจสอบราคาหุ้นปัจจุบัน ดูฐานโค้ดของคุณ หรือโต้ตอบกับเครื่องมือของคุณได้ จนถึงตอนนี้

การเข้าสู่โปรโตคอลบริบทของโมเดล (MCP)

MCP จินตนาการใหม่อย่างพื้นฐานว่าผู้ช่วย AI โต้ตอบกับระบบภายนอกอย่างไร แทนที่จะพยายามยัดเยียดบริบทเพิ่มเติมเข้าไปในโมเดลพารามิเตอร์ที่ใหญ่ขึ้น MCP สร้างวิธีมาตรฐานให้ AI เข้าถึงข้อมูลและระบบแบบไดนามิกตามความต้องการ

สถาปัตยกรรมนี้มีความเรียบง่ายแต่ทรงพลัง:

  • MCP Hosts: โปรแกรมหรือเครื่องมือเช่น Claude Desktop ที่โมเดล AI ทำงานและโต้ตอบกับบริการต่างๆ โฮสต์ให้สภาพแวดล้อมการทำงานและขอบเขตความปลอดภัยสำหรับผู้ช่วย AI

  • MCP Clients: ส่วนประกอบภายในผู้ช่วย AI ที่เริ่มต้นคำขอและจัดการการสื่อสารกับเซิร์ฟเวอร์ MCP แต่ละไคลเอนต์รักษาการเชื่อมต่อเฉพาะเพื่อทำงานเฉพาะหรือเข้าถึงทรัพยากรเฉพาะ จัดการวงจรคำขอ-ตอบกลับ

  • MCP Servers: โปรแกรมเฉพาะที่มีน้ำหนักเบาที่เปิดเผยความสามารถของบริการเฉพาะ เซิร์ฟเวอร์แต่ละตัวถูกสร้างขึ้นเพื่อจัดการการรวมประเภทหนึ่ง ไม่ว่าจะเป็นการค้นหาเว็บผ่าน Brave การเข้าถึงที่เก็บ GitHub หรือการสอบถามฐานข้อมูลในเครื่อง มี เซิร์ฟเวอร์โอเพนซอร์ส

  • ทรัพยากรในเครื่องและระยะไกล: แหล่งข้อมูลและบริการพื้นฐานที่เซิร์ฟเวอร์ MCP สามารถเข้าถึงได้ ทรัพยากรในเครื่องรวมถึงไฟล์ ฐานข้อมูล และบริการบนคอมพิวเตอร์ของคุณ ในขณะที่ทรัพยากรระยะไกลครอบคลุม API ภายนอกและบริการคลาวด์ที่เซิร์ฟเวอร์สามารถเชื่อมต่อได้อย่างปลอดภัย

คิดว่ามันเป็นการให้ผู้ช่วย AI มีระบบประสาทสัมผัสที่ขับเคลื่อนด้วย API แทนที่จะพยายามจดจำทุกอย่างระหว่างการฝึกอบรม พวกเขาสามารถเข้าถึงและสอบถามสิ่งที่ต้องการรู้ได้

ทำไมสิ่งนี้ถึงสำคัญ: สามการบุกเบิก

  1. ปัญญาแบบเรียลไทม์: แทนที่จะพึ่งพาข้อมูลการฝึกอบรมที่ล้าสมัย ผู้ช่วย AI สามารถดึงข้อมูลปัจจุบันจากแหล่งที่เชื่อถือได้ เมื่อคุณถามเกี่ยวกับราคาของ Bitcoin คุณจะได้ราคาของวันนี้ ไม่ใช่ของปีที่แล้ว
  2. การรวมระบบ: MCP ช่วยให้การโต้ตอบโดยตรงกับสภาพแวดล้อมการพัฒนา เครื่องมือธุรกิจ และ API ผู้ช่วย AI ของคุณไม่ได้แค่พูดคุยเกี่ยวกับโค้ด—มันสามารถเห็นและโต้ตอบกับที่เก็บของคุณได้จริง
  3. ความปลอดภัยโดยการออกแบบ: โมเดลไคลเอนต์-โฮสต์-เซิร์ฟเวอร์สร้างขอบเขตความปลอดภัยที่ชัดเจน องค์กรสามารถใช้การควบคุมการเข้าถึงที่ละเอียดในขณะที่รักษาประโยชน์ของการช่วยเหลือ AI ไม่มีการเลือกอีกต่อไประหว่างความปลอดภัยและความสามารถ

เห็นคือเชื่อ: MCP ในการปฏิบัติ

ลองตั้งค่าตัวอย่างการใช้งานจริงโดยใช้แอป Claude Desktop และเครื่องมือ Brave Search MCP สิ่งนี้จะช่วยให้ Claude ค้นหาเว็บแบบเรียลไทม์:

1. ติดตั้ง Claude Desktop

2. รับคีย์ API ของ Brave

3. สร้างไฟล์ config

open ~/Library/Application\ Support/Claude
touch ~/Library/Application\ Support/Claude/claude_desktop_config.json

และจากนั้นแก้ไขไฟล์ให้เป็นดังนี้:


{
"mcpServers": {
"brave-search": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-brave-search"
],
"env": {
"BRAVE_API_KEY": "YOUR_API_KEY_HERE"
}
}
}
}

4. เปิดแอป Claude Desktop ใหม่

ทางด้านขวาของแอป คุณจะสังเกตเห็นเครื่องมือใหม่สองตัว (ไฮไลต์ในวงกลมสีแดงในภาพด้านล่าง) สำหรับการค้นหาอินเทอร์เน็ตโดยใช้เครื่องมือ Brave Search MCP

เมื่อกำหนดค่าแล้ว การเปลี่ยนแปลงจะราบรื่น ถาม Claude เกี่ยวกับเกมล่าสุดของ Manchester United และแทนที่จะพึ่งพาข้อมูลการฝึกอบรมที่ล้าสมัย มันจะทำการค้นหาเว็บแบบเรียลไทม์เพื่อให้ข้อมูลที่ถูกต้องและทันสมัย

ภาพรวมที่ใหญ่ขึ้น: ทำไม MCP ถึงเปลี่ยนทุกอย่าง

ผลกระทบที่นี่ไปไกลกว่าการค้นหาเว็บง่ายๆ MCP สร้างแนวคิดใหม่สำหรับการช่วยเหลือ AI:

  1. การรวมเครื่องมือ: ผู้ช่วย AI สามารถใช้เครื่องมือใดก็ได้ที่มี API คิดถึงการดำเนินการ Git การสอบถามฐานข้อมูล หรือข้อความ Slack
  2. การยึดติดกับโลกจริง: โดยการเข้าถึงข้อมูลปัจจุบัน การตอบสนองของ AI จะยึดติดกับความเป็นจริงแทนที่จะเป็นข้อมูลการฝึกอบรม
  3. การขยายตัว: โปรโตคอลถูกออกแบบมาเพื่อการขยายตัว เมื่อเครื่องมือและ API ใหม่ปรากฏขึ้น พวกเขาสามารถรวมเข้ากับระบบนิเวศ MCP ได้อย่างรวดเร็ว

อะไรต่อไปสำหรับ MCP

เรากำลังเห็นเพียงจุดเริ่มต้นของสิ่งที่เป็นไปได้กับ MCP ลองจินตนาการถึงผู้ช่วย AI ที่สามารถ:

  • ดึงและวิเคราะห์ข้อมูลตลาดแบบเรียลไทม์
  • โต้ตอบโดยตรงกับสภาพแวดล้อมการพัฒนาของคุณ
  • เข้าถึงและสรุปเอกสารภายในของบริษัทของคุณ
  • ประสานงานข้ามเครื่องมือธุรกิจหลายตัวเพื่อทำงานอัตโนมัติ

เส้นทางข้างหน้า

MCP แสดงถึงการเปลี่ยนแปลงพื้นฐานในวิธีที่เราคิดเกี่ยวกับความสามารถของ AI แทนที่จะสร้างโมเดลที่ใหญ่ขึ้นด้วยหน้าต่างบริบทที่กว้างขึ้น เรากำลังสร้างวิธีที่ชาญฉลาดขึ้นให้ AI โต้ตอบกับระบบและข้อมูลที่มีอยู่

สำหรับนักพัฒนา นักวิเคราะห์ และผู้นำด้านเทคโนโลยี MCP เปิดโอกาสใหม่สำหรับการรวม AI มันไม่ใช่แค่สิ่งที่ AI รู้—แต่มันคือสิ่งที่มันสามารถทำได้

การปฏิวัติที่แท้จริงใน AI อาจไม่เกี่ยวกับการทำให้โมเดลใหญ่ขึ้น แต่มันอาจเกี่ยวกับการทำให้มันเชื่อมต่อได้มากขึ้น และด้วย MCP การปฏิวัตินั้นได้เกิดขึ้นแล้ว

การปฏิวัติแบบโอเพนซอร์สของ DeepSeek: ข้อมูลเชิงลึกจากการประชุมสุดยอด AI แบบปิดประตู

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

การปฏิวัติแบบโอเพนซอร์สของ DeepSeek: ข้อมูลเชิงลึกจากการประชุมสุดยอด AI แบบปิดประตู

DeepSeek กำลังสร้างความฮือฮาในโลก AI เพียงแค่การสนทนาเกี่ยวกับ DeepSeek-R1 ยังไม่ทันจางหาย ทีมงานก็ได้ปล่อยข่าวใหญ่: โมเดลมัลติโหมดแบบโอเพนซอร์ส Janus-Pro ความเร็วที่เกิดขึ้นทำให้เวียนหัว ความทะเยอทะยานชัดเจน

การปฏิวัติแบบโอเพนซอร์สของ DeepSeek: ข้อมูลเชิงลึกจากการประชุมสุดยอด AI แบบปิดประตู

เมื่อสองวันที่ผ่านมา กลุ่มนักวิจัย AI ชั้นนำ นักพัฒนา และนักลงทุนได้มารวมตัวกันเพื่อการสนทนาแบบปิดประตูที่จัดโดย Shixiang โดยเน้นไปที่ DeepSeek โดยเฉพาะ ในช่วงเวลากว่าสามชั่วโมง พวกเขาได้แยกแยะนวัตกรรมทางเทคนิคของ DeepSeek โครงสร้างองค์กร และผลกระทบที่กว้างขึ้นของการเติบโตของมัน—ต่อโมเดลธุรกิจ AI ตลาดรอง และทิศทางระยะยาวของการวิจัย AI

ตามแนวคิดของ DeepSeek ที่เน้นความโปร่งใสแบบโอเพนซอร์ส เรากำลังเปิดเผยความคิดร่วมของเราให้สาธารณชน นี่คือข้อมูลเชิงลึกที่กลั่นกรองจากการสนทนา ครอบคลุมกลยุทธ์ของ DeepSeek นวัตกรรมทางเทคนิค และผลกระทบที่อาจมีต่ออุตสาหกรรม AI

DeepSeek: ความลึกลับและภารกิจ

  • ภารกิจหลักของ DeepSeek: CEO Liang Wenfeng ไม่ใช่แค่ผู้ประกอบการ AI อีกคน—เขาเป็นวิศวกรโดยหัวใจ แตกต่างจาก Sam Altman เขามุ่งเน้นไปที่การดำเนินการทางเทคนิค ไม่ใช่แค่วิสัยทัศน์
  • ทำไม DeepSeek ได้รับความเคารพ: สถาปัตยกรรม MoE (Mixture of Experts) ของมันเป็นตัวแยกแยะที่สำคัญ การทำซ้ำโมเดล o1 ของ OpenAI ในระยะแรกเป็นเพียงการเริ่มต้น—ความท้าทายที่แท้จริงคือการขยายด้วยทรัพยากรที่จำกัด
  • การขยายโดยไม่ต้องพึ่งพา NVIDIA: แม้จะมีการอ้างว่ามี GPU 50,000 ตัว แต่ DeepSeek น่าจะดำเนินการด้วย A100s เก่าประมาณ 10,000 ตัวและ H800s ก่อนการแบน 3,000 ตัว แตกต่างจากห้องปฏิบัติการในสหรัฐฯ ที่ใช้คอมพิวเตอร์แก้ปัญหาทุกอย่าง DeepSeek ถูกบังคับให้มีประสิทธิภาพ
  • จุดเน้นที่แท้จริงของ DeepSeek: แตกต่างจาก OpenAI หรือ Anthropic, DeepSeek ไม่ได้ยึดติดกับ “AI ที่ให้บริการมนุษย์” แต่กำลังไล่ตามปัญญาเอง นี่อาจเป็นอาวุธลับของมัน

นักสำรวจ vs. ผู้ตาม: กฎพลังของ AI

  • การพัฒนา AI เป็นฟังก์ชันขั้น: ต้นทุนของการตามทันต่ำกว่า 10 เท่าของการเป็นผู้นำ “ผู้ตาม” ใช้ประโยชน์จากความก้าวหน้าที่ผ่านมาในต้นทุนคอมพิวเตอร์ที่น้อยกว่า ในขณะที่ “นักสำรวจ” ต้องก้าวไปข้างหน้าอย่างมืดบอด แบกรับค่าใช้จ่าย R&D มหาศาล
  • DeepSeek จะเหนือกว่า OpenAI หรือไม่? เป็นไปได้—แต่เฉพาะเมื่อ OpenAI สะดุด AI ยังคงเป็นปัญหาที่เปิดกว้าง และวิธีการของ DeepSeek ต่อโมเดลการให้เหตุผลเป็นการเดิมพันที่แข็งแกร่ง

นวัตกรรมทางเทคนิคเบื้องหลัง DeepSeek

1. จุดจบของการปรับแต่งแบบกำกับ (SFT)?

  • การอ้างสิทธิ์ที่ก่อกวนที่สุดของ DeepSeek: SFT อาจไม่จำเป็นอีกต่อไปสำหรับงานการให้เหตุผล หากเป็นจริง นี่ถือเป็นการเปลี่ยนแปลงแนวคิด
  • แต่ช้าก่อน… DeepSeek-R1 ยังคงพึ่งพา SFT โดยเฉพาะสำหรับการจัดตำแหน่ง การเปลี่ยนแปลงที่แท้จริงคือวิธีการใช้ SFT—การกลั่นกรองงานการให้เหตุผลอย่างมีประสิทธิภาพมากขึ้น

2. ประสิทธิภาพของข้อมูล: คูเมืองที่แท้จริง

  • ทำไม DeepSeek ให้ความสำคัญกับการติดป้ายข้อมูล: Liang Wenfeng รายงานว่าติดป้ายข้อมูลด้วยตนเอง เน้นย้ำถึงความสำคัญ ความสำเร็จของ Tesla ในการขับขี่ด้วยตนเองมาจากการใส่ใจในรายละเอียดของมนุษย์—DeepSeek กำลังใช้ความเข้มงวดเดียวกัน
  • ข้อมูลหลายโหมด: ยังไม่พร้อม—แม้จะมีการเปิดตัว Janus-Pro แต่การเรียนรู้หลายโหมดยังคงมีค่าใช้จ่ายสูง ไม่มีห้องปฏิบัติการใดที่แสดงให้เห็นถึงผลกำไรที่น่าดึงดูด

3. การกลั่นโมเดล: ดาบสองคม

  • การกลั่นช่วยเพิ่มประสิทธิภาพแต่ลดความหลากหลาย: สิ่งนี้อาจจำกัดความสามารถของโมเดลในระยะยาว
  • “หนี้ที่ซ่อนอยู่” ของการกลั่น: โดยไม่เข้าใจถึงความท้าทายพื้นฐานของการฝึกอบรม AI การพึ่งพาการกลั่นอาจนำไปสู่ปัญหาที่ไม่คาดคิดเมื่อสถาปัตยกรรมรุ่นใหม่เกิดขึ้น

4. รางวัลกระบวนการ: พรมแดนใหม่ในการจัดตำแหน่ง AI

  • การควบคุมผลลัพธ์กำหนดเพดาน: การเรียนรู้เสริมแรงตามกระบวนการอาจป้องกันการแฮ็ก แต่ขีดจำกัดบนของปัญญายังคงขึ้นอยู่กับการตอบกลับที่ขับเคลื่อนด้วยผลลัพธ์
  • ปริศนา RL: โมเดลภาษาขนาดใหญ่ (LLMs) ไม่มีเงื่อนไขการชนะที่ชัดเจนเหมือนหมากรุก AlphaZero ทำงานได้เพราะชัยชนะเป็นแบบไบนารี การให้เหตุผลของ AI ขาดความชัดเจนนี้

ทำไม OpenAI ถึงไม่ใช้วิธีของ DeepSeek?

  • เรื่องของการมุ่งเน้น: OpenAI ให้ความสำคัญกับขนาด ไม่ใช่ประสิทธิภาพ
  • “สงคราม AI ที่ซ่อนอยู่” ในสหรัฐอเมริกา: OpenAI และ Anthropic อาจเพิกเฉยต่อวิธีการของ DeepSeek แต่พวกเขาจะไม่ทำเช่นนั้นอีกต่อไป หาก DeepSeek พิสูจน์ได้ว่าใช้งานได้ คาดว่าจะมีการเปลี่ยนแปลงทิศทางการวิจัย

อนาคตของ AI ในปี 2025

  • เกินกว่า Transformers? AI มีแนวโน้มที่จะแยกออกเป็นสถาปัตยกรรมที่แตกต่างกัน สาขานี้ยังคงยึดติดกับ Transformers แต่โมเดลทางเลือกอาจเกิดขึ้น
  • ศักยภาพที่ยังไม่ได้ใช้ของ RL: การเรียนรู้เสริมแรงยังคงไม่ได้ใช้ประโยชน์นอกโดเมนแคบ ๆ เช่น คณิตศาสตร์และการเขียนโค้ด
  • ปีของตัวแทน AI? แม้จะมีการโฆษณา แต่ยังไม่มีห้องปฏิบัติการใดที่ส่งมอบตัวแทน AI ที่ก้าวหน้า

นักพัฒนาจะย้ายไปที่ DeepSeek หรือไม่?

  • ยังไม่ใช่. ความสามารถในการเขียนโค้ดและการปฏิบัติตามคำแนะนำที่เหนือกว่าของ OpenAI ยังคงให้ความได้เปรียบ
  • แต่ช่องว่างกำลังปิดลง. หาก DeepSeek รักษาโมเมนตัมไว้ได้ นักพัฒนาอาจเปลี่ยนในปี 2025

การเดิมพัน OpenAI Stargate มูลค่า 500 พันล้านดอลลาร์: ยังมีเหตุผลหรือไม่?

  • การเพิ่มขึ้นของ DeepSeek ทำให้เกิดข้อสงสัยเกี่ยวกับการครอบงำของ NVIDIA. หากประสิทธิภาพมีความสำคัญมากกว่าการขยายขนาดแบบใช้กำลังดิบ ซูเปอร์คอมพิวเตอร์มูลค่า 500 พันล้านดอลลาร์ของ OpenAI อาจดูเกินความจำเป็น
  • OpenAI จะใช้จ่าย 500 พันล้านดอลลาร์จริงหรือไม่? SoftBank เป็นผู้สนับสนุนทางการเงิน แต่ขาดสภาพคล่อง การดำเนินการยังคงไม่แน่นอน
  • Meta กำลังย้อนกลับวิศวกรรม DeepSeek. สิ่งนี้ยืนยันถึงความสำคัญของมัน แต่ไม่แน่ใจว่า Meta สามารถปรับแผนงานของตนได้หรือไม่

ผลกระทบต่อตลาด: ผู้ชนะและผู้แพ้

  • ระยะสั้น: หุ้นชิป AI รวมถึง NVIDIA อาจเผชิญกับความผันผวน
  • ระยะยาว: เรื่องราวการเติบโตของ AI ยังคงไม่เปลี่ยนแปลง—DeepSeek เพียงพิสูจน์ว่าประสิทธิภาพมีความสำคัญพอ ๆ กับพลังดิบ

โอเพนซอร์ส vs. โคลสซอร์ส: แนวรบใหม่

  • หากโมเดลโอเพนซอร์สเข้าถึง 95% ของประสิทธิภาพโคลสซอร์ส, โมเดลธุรกิจ AI ทั้งหมดจะเปลี่ยนไป
  • DeepSeek กำลังบังคับให้ OpenAI ต้องลงมือ. หากโมเดลโอเพนยังคงพัฒนาอย่างต่อเนื่อง AI ที่เป็นกรรมสิทธิ์อาจไม่ยั่งยืน

ผลกระทบของ DeepSeek ต่อกลยุทธ์ AI ระดับโลก

  • จีนกำลังตามทันเร็วกว่าที่คาด. ช่องว่าง AI ระหว่างจีนและสหรัฐฯ อาจมีเพียง 3-9 เดือน ไม่ใช่สองปีตามที่เคยคิด
  • DeepSeek เป็นหลักฐานแนวคิดสำหรับกลยุทธ์ AI ของจีน. แม้จะมีข้อจำกัดด้านคอมพิวเตอร์ แต่การสร้างนวัตกรรมที่ขับเคลื่อนด้วยประสิทธิภาพก็ได้ผล

คำสุดท้าย: วิสัยทัศน์มีความสำคัญมากกว่าเทคโนโลยี

  • ตัวแยกแยะที่แท้จริงของ DeepSeek คือความทะเยอทะยาน. ความก้าวหน้าใน AI มาจากการผลักดันขอบเขตของปัญญา ไม่ใช่แค่การปรับปรุงโมเดลที่มีอยู่
  • การต่อสู้ครั้งต่อไปคือการให้เหตุผล. ใครก็ตามที่บุกเบิกโมเดลการให้เหตุผล AI รุ่นต่อไปจะกำหนดทิศทางของอุตสาหกรรม

การทดลองทางความคิด: หากคุณมีโอกาสถามคำถาม CEO ของ DeepSeek Liang Wenfeng หนึ่งคำถาม คุณจะถามอะไร? คำแนะนำที่ดีที่สุดของคุณสำหรับบริษัทในขณะที่มันขยายตัวคืออะไร? แบ่งปันความคิดของคุณ—คำตอบที่โดดเด่นอาจได้รับเชิญให้เข้าร่วมการประชุมสุดยอด AI แบบปิดประตูครั้งต่อไป

DeepSeek ได้เปิดบทใหม่ใน AI ไม่ว่าจะเขียนเรื่องราวทั้งหมดใหม่หรือไม่ยังคงต้องติดตามต่อไป

การวิเคราะห์อุตสาหกรรม AI ปี 2025: ผู้ชนะ, ผู้แพ้, และการเดิมพันสำคัญ

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

บทนำ

ภูมิทัศน์ของ AI กำลังเกิดการเปลี่ยนแปลงครั้งใหญ่ ในช่วงสองสัปดาห์ที่ผ่านมา เราได้จัดการสนทนาแบบปิดประตูร่วมกับนักวิจัยและนักพัฒนา AI ชั้นนำ เพื่อค้นหาข้อมูลเชิงลึกที่น่าสนใจเกี่ยวกับเส้นทางของอุตสาหกรรมในปี 2025 สิ่งที่เกิดขึ้นคือการปรับโครงสร้างอำนาจที่ซับซ้อน, ความท้าทายที่ไม่คาดคิดสำหรับผู้เล่นที่มีชื่อเสียง, และจุดเปลี่ยนสำคัญที่จะกำหนดอนาคตของเทคโนโลยี

นี่ไม่ใช่แค่รายงาน—แต่เป็นแผนที่ของอนาคตของอุตสาหกรรม มาดูผู้ชนะ, ผู้แพ้, และการเดิมพันสำคัญที่กำหนดปี 2025 กันเถอะ

การวิเคราะห์อุตสาหกรรม AI ปี 2025: ผู้ชนะ, ผู้แพ้, และการเดิมพันสำคัญ

ผู้ชนะ: โครงสร้างอำนาจใหม่ที่เกิดขึ้น

Anthropic: ผู้บุกเบิกที่มีวิสัยทัศน์

Anthropic โดดเด่นในฐานะผู้นำในปี 2025 ด้วยกลยุทธ์ที่ชัดเจนและมีวิสัยทัศน์:

  • Model Control Protocol (MCP): MCP ไม่ใช่แค่ข้อกำหนดทางเทคนิค แต่เป็นโปรโตคอลพื้นฐานที่มุ่งสร้างมาตรฐานอุตสาหกรรมสำหรับการเขียนโค้ดและการทำงานของเอเจนต์ คิดว่าเป็น TCP/IP สำหรับยุคเอเจนต์—การเคลื่อนไหวที่ทะเยอทะยานเพื่อวาง Anthropic ไว้ที่ศูนย์กลางของการทำงานร่วมกันของ AI
  • ความเชี่ยวชาญด้านโครงสร้างพื้นฐาน: การมุ่งเน้นของ Anthropic ในด้าน ประสิทธิภาพการคำนวณ และ การออกแบบชิปที่กำหนดเอง แสดงให้เห็นถึงการมองการณ์ไกลในการแก้ไขปัญหาความสามารถในการขยายตัวของการใช้งาน AI
  • ความร่วมมือเชิงกลยุทธ์: โดยมุ่งเน้นเฉพาะการสร้างโมเดลที่ทรงพลังและการเอาท์ซอร์สความสามารถเสริมให้กับพันธมิตร Anthropic ส่งเสริมระบบนิเวศที่ร่วมมือกัน โมเดล Claude 3.5 Sonnet ของพวกเขายังคงโดดเด่น ครองตำแหน่งสูงสุดในแอปพลิเคชันการเขียนโค้ดเป็นเวลาหกเดือน—ซึ่งถือว่ายาวนานในแง่ของ AI

Google: แชมป์การบูรณาการแนวดิ่ง

ความเป็นผู้นำของ Google มาจากการควบคุมที่ไม่มีใครเทียบได้ในห่วงโซ่คุณค่าของ AI ทั้งหมด:

  • โครงสร้างพื้นฐานแบบครบวงจร: TPUs ที่กำหนดเอง ของ Google, ศูนย์ข้อมูลที่กว้างขวาง, และการบูรณาการที่แน่นแฟ้นระหว่างซิลิคอน, ซอฟต์แวร์, และแอปพลิเคชันสร้างคูน้ำการแข่งขันที่ไม่สามารถโจมตีได้
  • ประสิทธิภาพของ Gemini Exp-1206: การทดลองแรกของ Gemini Exp-1206 ได้สร้างมาตรฐานใหม่ ตอกย้ำความสามารถของ Google ในการเพิ่มประสิทธิภาพทั่วทั้งสแต็ก
  • โซลูชันสำหรับองค์กร: ระบบนิเวศภายในที่หลากหลายของ Google ทำหน้าที่เป็นสนามทดสอบสำหรับโซลูชันการทำงานอัตโนมัติในที่ทำงาน การบูรณาการแนวดิ่งของพวกเขาทำให้พวกเขามีตำแหน่งที่จะครอง AI สำหรับองค์กรในแบบที่ทั้งบริษัท AI แบบเพียวเพลย์หรือผู้ให้บริการคลาวด์แบบดั้งเดิมไม่สามารถเทียบได้

ผู้แพ้: ช่วงเวลาที่ยากลำบากข้างหน้า

OpenAI: ที่ทางแยก

แม้จะประสบความสำเร็จในช่วงแรก แต่ OpenAI กำลังเผชิญกับความท้าทายที่เพิ่มขึ้น:

  • ปัญหาภายในองค์กร: การจากไปของบุคคลสำคัญ เช่น Alec Radford ส่งสัญญาณถึงความไม่สอดคล้องภายในองค์กร การเปลี่ยนไปสู่แอปพลิเคชันสำหรับผู้บริโภคของ OpenAI กำลังทำให้โฟกัสที่ AGI หายไปหรือไม่?
  • ข้อจำกัดเชิงกลยุทธ์: ความสำเร็จของ ChatGPT แม้จะมีมูลค่าทางการค้า แต่ก็อาจจำกัดนวัตกรรม ในขณะที่คู่แข่งสำรวจการทำงานของเอเจนต์และแอปพลิเคชันระดับองค์กร OpenAI เสี่ยงที่จะถูกจำกัดอยู่ในพื้นที่แชทบอท

Apple: พลาดคลื่น AI

ความก้าวหน้าที่จำกัดของ Apple ในด้าน AI กำลังคุกคามความเป็นผู้นำที่ยาวนานในนวัตกรรมมือถือ:

  • จุดบอดเชิงกลยุทธ์: เมื่อ AI กลายเป็นศูนย์กลางของระบบนิเวศมือถือ การขาดการมีส่วนร่วมที่มีผลกระทบของ Apple ต่อ โซลูชันแบบครบวงจรที่ขับเคลื่อนด้วย AI อาจบ่อนทำลายธุรกิจหลักของพวกเขา
  • ความเปราะบางในการแข่งขัน: หากไม่มีความก้าวหน้าอย่างมีนัยสำคัญในการบูรณาการ AI เข้ากับระบบนิเวศของพวกเขา Apple เสี่ยงที่จะล้าหลังคู่แข่งที่กำลังสร้างนวัตกรรมอย่างรวดเร็ว

การเดิมพันสำคัญสำหรับปี 2025

ความสามารถของโมเดล: การแยกทางที่ยิ่งใหญ่

อุตสาหกรรม AI อยู่ที่ทางแยกกับสองอนาคตที่เป็นไปได้:

  1. การกระโดดสู่ AGI: การบุกเบิกใน AGI อาจทำให้แอปพลิเคชันปัจจุบันล้าสมัย ปรับโครงสร้างอุตสาหกรรมในชั่วข้ามคืน
  2. วิวัฒนาการอย่างค่อยเป็นค่อยไป: มีแนวโน้มมากขึ้นที่การปรับปรุงทีละน้อยจะขับเคลื่อนแอปพลิเคชันที่ใช้งานได้จริงและการทำงานอัตโนมัติแบบครบวงจร ซึ่งเป็นประโยชน์ต่อบริษัทที่มุ่งเน้นการใช้งานมากกว่าการบุกเบิกพื้นฐาน

บริษัทต่างๆ ต้องสร้างสมดุลระหว่างการรักษาการวิจัยพื้นฐานและการส่งมอบคุณค่าทันที

วิวัฒนาการของเอเจนต์: พรมแดนถัดไป

เอเจนต์แสดงถึงการเปลี่ยนแปลงที่เปลี่ยนแปลงในปฏิสัมพันธ์ระหว่างมนุษย์กับ AI

  • การจัดการบริบท: องค์กรต่างๆ กำลังก้าวข้ามโมเดลการตอบสนองแบบง่ายๆ เพื่อรวม ความเข้าใจบริบท เข้ากับเวิร์กโฟลว์ สิ่งนี้ทำให้ง่ายต่อการออกแบบสถาปัตยกรรม ทำให้แอปพลิเคชันพัฒนาตามความสามารถของโมเดล
  • ความร่วมมือระหว่างมนุษย์กับ AI: การสร้างสมดุลระหว่างความเป็นอิสระกับการควบคุมเป็นกุญแจสำคัญ นวัตกรรมเช่น MCP ของ Anthropic อาจวางรากฐานสำหรับ ร้านค้าแอปเอเจนต์ ที่ช่วยให้การสื่อสารระหว่างเอเจนต์และระบบองค์กรเป็นไปอย่างราบรื่น

มองไปข้างหน้า: แพลตฟอร์มเมกะถัดไป

ยุคของระบบปฏิบัติการ AI

AI พร้อมที่จะกำหนดนิยามใหม่ของแพลตฟอร์ม สร้าง "ระบบปฏิบัติการ" ใหม่สำหรับยุคดิจิทัล:

  • โมเดลพื้นฐานเป็นโครงสร้างพื้นฐาน: โมเดลกำลังกลายเป็นแพลตฟอร์มในตัวเอง โดยมี การพัฒนาที่เน้น API เป็นหลัก และ โปรโตคอลเอเจนต์ที่เป็นมาตรฐาน ขับเคลื่อนนวัตกรรม
  • กระบวนทัศน์การโต้ตอบใหม่: AI จะก้าวข้ามอินเทอร์เฟซแบบดั้งเดิม ผสานรวมเข้ากับอุปกรณ์และสภาพแวดล้อมโดยรอบอย่างไร้รอยต่อ ยุคของ หุ่นยนต์และเอเจนต์ AI ที่สวมใส่ได้ กำลังใกล้เข้ามา
  • วิวัฒนาการของฮาร์ดแวร์: ชิปเฉพาะทาง, การประมวลผลที่ขอบ, และรูปแบบฮาร์ดแวร์ที่ปรับให้เหมาะสมจะเร่งการนำ AI ไปใช้ในอุตสาหกรรมต่างๆ

บทสรุป

อุตสาหกรรม AI กำลังเข้าสู่ช่วงเวลาที่ชี้ขาดซึ่งการใช้งานจริง, โครงสร้างพื้นฐาน, และปฏิสัมพันธ์ระหว่างมนุษย์กับ AI จะเป็นศูนย์กลาง ผู้ชนะจะเป็นผู้ที่เก่งในด้าน:

  • การส่งมอบ โซลูชันแบบครบวงจร ที่แก้ปัญหาจริง
  • การเชี่ยวชาญใน แอปพลิเคชันแนวดิ่ง เพื่อแซงหน้าคู่แข่ง
  • การสร้าง โครงสร้างพื้นฐานที่แข็งแกร่งและปรับขนาดได้ สำหรับการปรับใช้ที่มีประสิทธิภาพ
  • การกำหนด กระบวนทัศน์การโต้ตอบระหว่างมนุษย์กับ AI ที่สร้างสมดุลระหว่างความเป็นอิสระกับการควบคุม

นี่เป็นช่วงเวลาสำคัญ บริษัทที่ประสบความสำเร็จจะเป็นผู้ที่แปลศักยภาพของ AI ให้เป็นคุณค่าที่จับต้องได้และเปลี่ยนแปลงได้ ขณะที่ปี 2025 กำลังเปิดตัว การแข่งขันเพื่อกำหนดแพลตฟอร์มเมกะและระบบนิเวศถัดไปได้เริ่มขึ้นแล้ว

คุณคิดว่าอย่างไร? เรากำลังมุ่งหน้าไปสู่การบุกเบิก AGI หรือความก้าวหน้าแบบค่อยเป็นค่อยไปจะครองอำนาจ? แบ่งปันความคิดของคุณและเข้าร่วมการสนทนา

Airdrop Cuckoo × IoTeX: Cuckoo Chain ขยายสู่ IoTeX เป็น Layer 2

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

Cuckoo Network มีความยินดีที่จะประกาศการขยายตัวสู่ IoTeX เป็นโซลูชัน Layer 2 นำโครงสร้างพื้นฐาน AI แบบกระจายศูนย์มาสู่ระบบนิเวศที่เจริญรุ่งเรืองของ IoTeX ความร่วมมือเชิงกลยุทธ์นี้รวมความเชี่ยวชาญของ Cuckoo ในการให้บริการโมเดล AI กับโครงสร้างพื้นฐาน MachineFi ที่แข็งแกร่งของ IoTeX สร้างโอกาสใหม่ ๆ สำหรับทั้งสองชุมชน

การขยายตัวของ Cuckoo Network

ความต้องการ

ผู้ใช้และนักพัฒนาของ IoTeX ต้องการเข้าถึงทรัพยากรการคำนวณ AI แบบกระจายศูนย์ที่มีประสิทธิภาพ ในขณะที่ผู้สร้างแอปพลิเคชัน AI ต้องการโครงสร้างพื้นฐานบล็อกเชนที่ปรับขนาดได้ โดยการสร้างบน IoTeX, Cuckoo Chain ตอบสนองความต้องการเหล่านี้ในขณะที่ขยายตลาด AI แบบกระจายศูนย์ไปยังระบบนิเวศใหม่

โซลูชัน

Cuckoo Chain บน IoTeX มอบ:

  • การผสานรวมอย่างราบรื่นกับโครงสร้างพื้นฐาน MachineFi ของ IoTeX
  • ลดต้นทุนการทำธุรกรรมสำหรับการให้บริการโมเดล AI
  • เพิ่มความสามารถในการปรับขนาดสำหรับแอปพลิเคชัน AI แบบกระจายศูนย์
  • การทำงานร่วมกันข้ามบล็อกเชนระหว่าง IoTeX และ Cuckoo Chain

รายละเอียด Airdrop

เพื่อเฉลิมฉลองการขยายตัวนี้ Cuckoo Network กำลังเปิดตัวแคมเปญ airdrop สำหรับสมาชิกชุมชน IoTeX และ Cuckoo ผู้เข้าร่วมสามารถรับโทเค็น $CAI ผ่านกิจกรรมการมีส่วนร่วมต่าง ๆ:

  1. ผู้ใช้กลุ่มแรกจากระบบนิเวศ IoTeX
  2. นักขุด GPU ที่มีส่วนร่วมในเครือข่าย
  3. การมีส่วนร่วมอย่างแข็งขันในกิจกรรมข้ามบล็อกเชน
  4. การมีส่วนร่วมและการพัฒนาชุมชน
  5. รับ 30% ของรางวัลผู้แนะนำของคุณโดยการแชร์ลิงก์แนะนำของคุณ

เยี่ยมชม https://cuckoo.network/portal/airdrop?referer=CuckooNetworkHQ เพื่อเริ่มต้น

คำพูดจากผู้นำ

"การสร้าง Cuckoo Chain เป็น Layer 2 บน IoTeX ถือเป็นก้าวสำคัญในภารกิจของเราในการกระจายศูนย์โครงสร้างพื้นฐาน AI" Dora Noda, CPO ของ Cuckoo Network กล่าว "ความร่วมมือนี้ทำให้เราสามารถนำการคำนวณ AI ที่มีประสิทธิภาพและเข้าถึงได้มาสู่ระบบนิเวศ MachineFi ที่เป็นนวัตกรรมของ IoTeX ในขณะที่ขยายตลาด AI แบบกระจายศูนย์ของเรา"

คำถามที่พบบ่อย

ถาม: อะไรทำให้ Cuckoo Chain's L2 บน IoTeX มีเอกลักษณ์?

ตอบ: Cuckoo Chain's L2 บน IoTeX รวมการให้บริการโมเดล AI แบบกระจายศูนย์กับโครงสร้างพื้นฐาน MachineFi ของ IoTeX ทำให้การคำนวณ AI สำหรับอุปกรณ์ IoT และแอปพลิเคชันมีประสิทธิภาพและคุ้มค่า

ถาม: ฉันจะเข้าร่วม airdrop ได้อย่างไร?

ตอบ: เยี่ยมชม https://cuckoo.network/portal/airdrop?referer=CuckooNetworkHQ เพื่อทำกิจกรรมที่มีคุณสมบัติเหมาะสมและรับรางวัล

ถาม: ฉันจะได้รับ $CAI เพิ่มเติมได้อย่างไร?

  • การวางเดิมพันโทเค็น $CAI
  • การรันโหนดนักขุด GPU
  • การมีส่วนร่วมในธุรกรรมข้ามบล็อกเชน
  • การมีส่วนร่วมในการพัฒนาชุมชน

ถาม: ข้อกำหนดทางเทคนิคสำหรับนักขุด GPU คืออะไร?

ตอบ: นักขุด GPU ต้องการ:

  • NVIDIA GTX 3080, L4 หรือสูงกว่า
  • RAM ขั้นต่ำ 8GB
  • วางเดิมพันและได้รับการโหวต $CAI ในกลุ่มนักขุด 10 อันดับแรก
  • การเชื่อมต่ออินเทอร์เน็ตที่เชื่อถือได้ สำหรับคำแนะนำการตั้งค่าโดยละเอียด โปรดเยี่ยมชมเอกสารของเราที่ cuckoo.network/docs

ถาม: สิ่งนี้นำประโยชน์อะไรบ้างให้กับผู้ใช้ IoTeX?

ตอบ: ผู้ใช้ IoTeX ได้รับสิทธิ์เข้าถึง:

  • ทรัพยากรการคำนวณ AI แบบกระจายศูนย์
  • ลดต้นทุนการทำธุรกรรมสำหรับบริการ AI
  • การผสานรวมกับแอปพลิเคชัน MachineFi ที่มีอยู่
  • โอกาสในการหารายได้ใหม่ผ่านการขุด GPU และการวางเดิมพัน

ถาม: การทำงานข้ามบล็อกเชนทำงานอย่างไร?

ตอบ: ผู้ใช้จะสามารถเคลื่อนย้ายสินทรัพย์ระหว่าง IoTeX, Arbitrum และ Cuckoo Chain ได้อย่างราบรื่นโดยใช้โครงสร้างพื้นฐานสะพานของเรา ทำให้เกิดสภาพคล่องและการทำงานร่วมกันที่เป็นหนึ่งเดียวกันในระบบนิเวศ สะพาน Arbitrum ได้เปิดตัวแล้วและสะพาน IoTeX ยังอยู่ในระหว่างดำเนินการ

ถาม: กำหนดการเปิดตัวคืออะไร?

ตอบ: กำหนดการ:

  • สัปดาห์ที่ 8 มกราคม: เริ่มการแจกจ่าย airdrop บนเครือข่ายหลัก Cuckoo Chain
  • สัปดาห์ที่ 29 มกราคม: การปรับใช้สะพานระหว่าง IoTeX และ Cuckoo Chain
  • สัปดาห์ที่ 12 กุมภาพันธ์: การเปิดตัวเต็มรูปแบบของแพลตฟอร์มตัวแทนอัตโนมัติ

ถาม: นักพัฒนาสามารถสร้างบน Cuckoo Chain's IoTeX L2 ได้อย่างไร?

ตอบ: นักพัฒนาสามารถใช้เครื่องมือและภาษาของ Ethereum ที่คุ้นเคยได้ เนื่องจาก Cuckoo Chain รักษาความเข้ากันได้กับ EVM อย่างเต็มรูปแบบ เอกสารและทรัพยากรสำหรับนักพัฒนาที่ครอบคลุมจะพร้อมใช้งานที่ cuckoo.network/docs

ถาม: การจัดสรร airdrop ทั้งหมดคืออะไร?

ตอบ: แคมเปญ airdrop “IoTeX x Cuckoo” จะจัดสรรส่วนหนึ่งของการจัดสรรทั้งหมด 1‰ ที่สงวนไว้สำหรับผู้ใช้กลุ่มแรกและสมาชิกชุมชนจากอุปทานทั้งหมดของโทเค็น $CAI จำนวน 1 พันล้าน

ข้อมูลติดต่อ

สำหรับข้อมูลเพิ่มเติม เข้าร่วมชุมชนของเรา:

Ritual: การเดิมพัน $25M ในการทำให้บล็อกเชนคิดได้

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

Ritual ก่อตั้งขึ้นในปี 2023 โดยอดีตนักลงทุน Polychain Niraj Pant และ Akilesh Potti เป็นโครงการที่มีความทะเยอทะยานที่จุดตัดของบล็อกเชนและ AI โดยได้รับการสนับสนุนจาก Series A มูลค่า $25M ที่นำโดย Archetype และการลงทุนเชิงกลยุทธ์จาก Polychain Capital บริษัทมีเป้าหมายที่จะจัดการกับช่องว่างโครงสร้างพื้นฐานที่สำคัญในการเปิดใช้งานการโต้ตอบที่ซับซ้อนทั้งในและนอกเชน ด้วยทีมผู้เชี่ยวชาญ 30 คนจากสถาบันและบริษัทชั้นนำ Ritual กำลังสร้างโปรโตคอลที่รวมความสามารถของ AI เข้ากับสภาพแวดล้อมบล็อกเชนโดยตรง โดยมุ่งเป้าไปที่กรณีการใช้งานเช่นสมาร์ทคอนแทรคที่สร้างจากภาษาธรรมชาติและโปรโตคอลการให้ยืมที่ขับเคลื่อนด้วยตลาดแบบไดนามิก

Ritual: การเดิมพัน $25M ในการทำให้บล็อกเชนคิดได้

ทำไมลูกค้าถึงต้องการ Web3 สำหรับ AI

การรวมกันของ Web3 และ AI สามารถบรรเทาข้อจำกัดหลายประการที่พบในระบบ AI แบบรวมศูนย์แบบดั้งเดิม

  1. โครงสร้างพื้นฐานแบบกระจายศูนย์ช่วยลดความเสี่ยงของการบิดเบือน: เมื่อการคำนวณ AI และผลลัพธ์ของโมเดลถูกดำเนินการโดยโหนดหลายโหนดที่ดำเนินการอย่างอิสระ มันจะยากขึ้นมากสำหรับหน่วยงานใดหน่วยงานหนึ่ง ไม่ว่าจะเป็นนักพัฒนาหรือคนกลางของบริษัท ในการบิดเบือนผลลัพธ์ สิ่งนี้ช่วยเพิ่มความมั่นใจของผู้ใช้และความโปร่งใสในแอปพลิเคชันที่ขับเคลื่อนด้วย AI

  2. AI ที่เป็นธรรมชาติของ Web3 ขยายขอบเขตของสมาร์ทคอนแทรคบนเชนเกินกว่าตรรกะทางการเงินพื้นฐาน ด้วย AI ในวงจร สัญญาสามารถตอบสนองต่อข้อมูลตลาดแบบเรียลไทม์ คำสั่งที่สร้างโดยผู้ใช้ และแม้กระทั่งงานอนุมานที่ซับซ้อน สิ่งนี้ทำให้สามารถใช้กรณีต่างๆ เช่น การซื้อขายอัลกอริธึม การตัดสินใจให้ยืมอัตโนมัติ และการโต้ตอบในแชท (เช่น FrenRug) ซึ่งจะเป็นไปไม่ได้ภายใต้ API AI ที่มีอยู่และแยกออกจากกัน เนื่องจากผลลัพธ์ของ AI สามารถตรวจสอบได้และรวมเข้ากับสินทรัพย์บนเชน การตัดสินใจที่มีมูลค่าสูงหรือเดิมพันสูงเหล่านี้สามารถดำเนินการได้ด้วยความไว้วางใจที่มากขึ้นและคนกลางที่น้อยลง

  3. การกระจายภาระงาน AI ข้ามเครือข่ายสามารถลดต้นทุนและเพิ่มความสามารถในการปรับขนาดได้ แม้ว่าการคำนวณ AI จะมีราคาแพง แต่สภาพแวดล้อม Web3 ที่ออกแบบมาอย่างดีจะดึงทรัพยากรการคำนวณจากทั่วโลกแทนที่จะเป็นผู้ให้บริการแบบรวมศูนย์เพียงรายเดียว สิ่งนี้เปิดโอกาสให้มีการกำหนดราคาที่มีความยืดหยุ่นมากขึ้น ความน่าเชื่อถือที่ดีขึ้น และความเป็นไปได้สำหรับเวิร์กโฟลว์ AI บนเชนอย่างต่อเนื่อง ทั้งหมดนี้ได้รับการสนับสนุนโดยแรงจูงใจที่ใช้ร่วมกันสำหรับผู้ให้บริการโหนดในการเสนอพลังการคำนวณของพวกเขา

แนวทางของ Ritual

ระบบมีสามชั้นหลัก—Infernet Oracle, Ritual Chain (โครงสร้างพื้นฐานและโปรโตคอล) และ Native Applications—แต่ละชั้นได้รับการออกแบบมาเพื่อแก้ไขความท้าทายที่แตกต่างกันในพื้นที่ Web3 x AI

1. Infernet Oracle

  • สิ่งที่มันทำ Infernet เป็นผลิตภัณฑ์แรกของ Ritual ทำหน้าที่เป็นสะพานเชื่อมระหว่างสมาร์ทคอนแทรคบนเชนและการคำนวณ AI นอกเชน แทนที่จะดึงข้อมูลภายนอกเพียงอย่างเดียว มันประสานงานงานอนุมานของโมเดล AI รวบรวมผลลัพธ์ และส่งคืนบนเชนในลักษณะที่ตรวจสอบได้
  • องค์ประกอบหลัก
    • Containers: สภาพแวดล้อมที่ปลอดภัยสำหรับโฮสต์งาน AI/ML ใดๆ (เช่น ONNX, Torch, Hugging Face models, GPT-4)
    • infernet-ml: ไลบรารีที่ปรับให้เหมาะสมสำหรับการปรับใช้เวิร์กโฟลว์ AI/ML ที่มีการผสานรวมพร้อมใช้งานกับเฟรมเวิร์กโมเดลยอดนิยม
    • Infernet SDK: ให้ส่วนต่อประสานมาตรฐานเพื่อให้นักพัฒนาสามารถเขียนสมาร์ทคอนแทรคที่ขอและใช้ผลลัพธ์การอนุมาน AI ได้อย่างง่ายดาย
    • Infernet Nodes: ปรับใช้บนบริการเช่น GCP หรือ AWS โหนดเหล่านี้ฟังคำขออนุมานบนเชน ดำเนินงานในคอนเทนเนอร์ และส่งมอบผลลัพธ์กลับบนเชน
    • การชำระเงินและการตรวจสอบ: จัดการการกระจายค่าธรรมเนียม (ระหว่างโหนดการคำนวณและการตรวจสอบ) และรองรับวิธีการตรวจสอบต่างๆ เพื่อให้แน่ใจว่างานจะดำเนินการอย่างซื่อสัตย์
  • ทำไมมันถึงสำคัญ Infernet ก้าวข้ามขีดจำกัดของ oracle แบบดั้งเดิมโดยการตรวจสอบการคำนวณ AI นอกเชน ไม่ใช่แค่ฟีดข้อมูลเท่านั้น นอกจากนี้ยังรองรับการจัดตารางงานอนุมานซ้ำๆ หรือที่ต้องการเวลา ลดความซับซ้อนของการเชื่อมโยงงานที่ขับเคลื่อนด้วย AI กับแอปพลิเคชันบนเชน

2. Ritual Chain

Ritual Chain รวมคุณสมบัติที่เป็นมิตรกับ AI ทั้งในระดับโครงสร้างพื้นฐานและโปรโตคอล ได้รับการออกแบบมาเพื่อจัดการกับการโต้ตอบที่บ่อยครั้ง อัตโนมัติ และซับซ้อนระหว่างสมาร์ทคอนแทรคและการคำนวณนอกเชน ขยายเกินกว่าที่ L1 ทั่วไปจะจัดการได้

2.1 Infrastructure Layer

  • สิ่งที่มันทำ โครงสร้างพื้นฐานของ Ritual Chain รองรับเวิร์กโฟลว์ AI ที่ซับซ้อนกว่าบล็อกเชนมาตรฐาน ผ่านโมดูลที่คอมไพล์ล่วงหน้า ตัวจัดตารางเวลา และส่วนขยาย EVM ที่เรียกว่า EVM++ มันมีเป้าหมายที่จะอำนวยความสะดวกในงาน AI ที่บ่อยหรือสตรีมมิ่ง การย่อบัญชีที่แข็งแกร่ง และการโต้ตอบกับสัญญาอัตโนมัติ

  • องค์ประกอบหลัก

    • โมดูลที่คอมไพล์ล่วงหน้า

      :

      • EIP Extensions (เช่น EIP-665, EIP-5027) ขจัดข้อจำกัดความยาวของโค้ด ลดแก๊สสำหรับลายเซ็น และเปิดใช้งานความไว้วางใจระหว่างงาน AI บนเชนและนอกเชน
      • Computational Precompiles สร้างมาตรฐานเฟรมเวิร์กสำหรับการอนุมาน AI, zero-knowledge proofs และการปรับแต่งโมเดลภายในสมาร์ทคอนแทรค
    • Scheduler: ขจัดการพึ่งพาสัญญา “Keeper” ภายนอกโดยอนุญาตให้รันงานตามกำหนดเวลาคงที่ (เช่น ทุกๆ 10 นาที) ซึ่งมีความสำคัญต่อกิจกรรมที่ขับเคลื่อนด้วย AI อย่างต่อเนื่อง

    • EVM++: ปรับปรุง EVM ด้วยการย่อบัญชีแบบเนทีฟ (EIP-7702) ให้สัญญาอนุมัติธุรกรรมอัตโนมัติในช่วงเวลาที่กำหนด สิ่งนี้รองรับการตัดสินใจที่ขับเคลื่อนด้วย AI อย่างต่อเนื่อง (เช่น การซื้อขายอัตโนมัติ) โดยไม่ต้องมีการแทรกแซงของมนุษย์

  • ทำไมมันถึงสำคัญ โดยการฝังคุณสมบัติที่เน้น AI โดยตรงในโครงสร้างพื้นฐาน Ritual Chain ทำให้การคำนวณ AI ที่ซับซ้อน ซ้ำซาก หรือที่ต้องการเวลาเป็นไปอย่างราบรื่น นักพัฒนาจะได้รับสภาพแวดล้อมที่แข็งแกร่งและเป็นอัตโนมัติมากขึ้นในการสร้าง dApps ที่ “ชาญฉลาด” อย่างแท้จริง

2.2 Consensus Protocol Layer

  • สิ่งที่มันทำ เลเยอร์โปรโตคอลของ Ritual Chain จัดการกับความจำเป็นในการจัดการงาน AI ที่หลากหลายอย่างมีประสิทธิภาพ งานอนุมานขนาดใหญ่และโหนดการคำนวณที่หลากหลายต้องการตรรกะตลาดค่าธรรมเนียมพิเศษและแนวทางฉันทามติใหม่เพื่อให้แน่ใจว่าการดำเนินการและการตรวจสอบเป็นไปอย่างราบรื่น
  • องค์ประกอบหลัก
    • Resonance (ตลาดค่าธรรมเนียม):
      • แนะนำบทบาท “auctioneer” และ “broker” เพื่อจับคู่งาน AI ที่มีความซับซ้อนแตกต่างกันกับโหนดการคำนวณที่เหมาะสม
      • ใช้การจัดสรรงานแบบเกือบหมดหรือ “bundled” เพื่อเพิ่มผลผลิตของเครือข่ายให้สูงสุด เพื่อให้แน่ใจว่าโหนดที่ทรงพลังจะจัดการกับงานที่ซับซ้อนโดยไม่หยุดชะงัก
    • Symphony (ฉันทามติ):
      • แยกการคำนวณ AI ออกเป็นงานย่อยแบบขนานเพื่อการตรวจสอบ โหนดหลายโหนดยืนยันขั้นตอนและผลลัพธ์ของกระบวนการแยกกัน
      • ป้องกันไม่ให้งาน AI ขนาดใหญ่เกินพิกัดเครือข่ายโดยกระจายภาระงานการตรวจสอบไปยังโหนดหลายโหนด
    • vTune:
      • แสดงให้เห็นถึงวิธีการตรวจสอบการปรับแต่งโมเดลที่ดำเนินการโดยโหนดบนเชนโดยใช้การตรวจสอบข้อมูล “backdoor”
      • แสดงให้เห็นถึงความสามารถที่กว้างขึ้นของ Ritual Chain ในการจัดการงาน AI ที่ยาวขึ้นและซับซ้อนมากขึ้นโดยมีสมมติฐานความไว้วางใจน้อยที่สุด
  • ทำไมมันถึงสำคัญ ตลาดค่าธรรมเนียมและโมเดลฉันทามติแบบดั้งเดิมมีปัญหากับภาระงาน AI ที่หนักหรือหลากหลาย โดยการออกแบบใหม่ทั้งสองอย่าง Ritual Chain สามารถจัดสรรงานและตรวจสอบผลลัพธ์ได้แบบไดนามิก ขยายความเป็นไปได้บนเชนให้ไกลเกินกว่าตรรกะของโทเค็นหรือสัญญาพื้นฐาน

3. Native Applications

  • สิ่งที่พวกเขาทำ สร้างขึ้นบน Infernet และ Ritual Chain แอปพลิเคชันเนทีฟประกอบด้วยตลาดโมเดลและเครือข่ายการตรวจสอบ ซึ่งแสดงให้เห็นว่าฟังก์ชันการทำงานที่ขับเคลื่อนด้วย AI สามารถรวมเข้ากับเชนและสร้างรายได้ได้อย่างไร
  • องค์ประกอบหลัก
    • ตลาดโมเดล:
      • โทเค็นโมเดล AI (และอาจเป็นตัวแปรที่ปรับแต่งแล้ว) เป็นสินทรัพย์บนเชน
      • ให้นักพัฒนาซื้อ ขาย หรือให้สิทธิ์ใช้งานโมเดล AI โดยรายได้จะได้รับรางวัลแก่ผู้สร้างโมเดลและผู้ให้บริการคำนวณ/ข้อมูล
    • เครือข่ายการตรวจสอบ & “Rollup-as-a-Service”:
      • เสนอโปรโตคอลภายนอก (เช่น L2s) สภาพแวดล้อมที่เชื่อถือได้สำหรับการคำนวณและการตรวจสอบงานที่ซับซ้อน เช่น zero-knowledge proofs หรือการสืบค้นที่ขับเคลื่อนด้วย AI
      • ให้บริการโซลูชัน rollup ที่ปรับแต่งได้โดยใช้ประโยชน์จาก EVM++ ของ Ritual คุณสมบัติการจัดตารางเวลา และการออกแบบตลาดค่าธรรมเนียม
  • ทำไมมันถึงสำคัญ โดยการทำให้โมเดล AI สามารถซื้อขายและตรวจสอบได้โดยตรงบนเชน Ritual ขยายฟังก์ชันการทำงานของบล็อกเชนไปสู่ตลาดสำหรับบริการและชุดข้อมูล AI เครือข่ายที่กว้างขึ้นยังสามารถใช้โครงสร้างพื้นฐานของ Ritual สำหรับการคำนวณเฉพาะทาง ก่อให้เกิดระบบนิเวศที่เป็นหนึ่งเดียวซึ่งงานและหลักฐาน AI มีราคาถูกกว่าและโปร่งใสมากขึ้น

การพัฒนาระบบนิเวศของ Ritual

วิสัยทัศน์ของ Ritual ในการสร้าง “เครือข่ายโครงสร้างพื้นฐาน AI แบบเปิด” สอดคล้องกับการสร้างระบบนิเวศที่แข็งแกร่ง นอกเหนือจากการออกแบบผลิตภัณฑ์หลักแล้ว ทีมงานยังได้สร้างความร่วมมือข้ามการจัดเก็บโมเดล การคำนวณ ระบบพิสูจน์ และแอปพลิเคชัน AI เพื่อให้แน่ใจว่าแต่ละชั้นของเครือข่ายได้รับการสนับสนุนจากผู้เชี่ยวชาญ ในขณะเดียวกัน Ritual ก็ลงทุนอย่างหนักในทรัพยากรของนักพัฒนาและการเติบโตของชุมชนเพื่อส่งเสริมกรณีการใช้งานจริงบนเชนของตน

  1. ความร่วมมือในระบบนิเวศ
  • การจัดเก็บโมเดล & ความสมบูรณ์: การจัดเก็บโมเดล AI ด้วย Arweave ช่วยให้มั่นใจได้ว่าพวกเขาจะไม่ถูกดัดแปลง
  • การเป็นพันธมิตรด้านการคำนวณ: IO.net จัดหาการคำนวณแบบกระจายศูนย์ที่ตรงกับความต้องการในการปรับขนาดของ Ritual
  • ระบบพิสูจน์ & Layer-2: ความร่วมมือกับ Starkware และ Arbitrum ขยายความสามารถในการสร้างหลักฐานสำหรับงานที่ใช้ EVM
  • แอปพลิเคชันผู้บริโภค AI: ความร่วมมือกับ Myshell และ Story Protocol นำบริการที่ขับเคลื่อนด้วย AI มาสู่เชนมากขึ้น
  • เลเยอร์สินทรัพย์โมเดล: Pond, Allora และ 0xScope ให้ทรัพยากร AI เพิ่มเติมและผลักดันขอบเขต AI บนเชน
  • การเพิ่มความเป็นส่วนตัว: Nillion เสริมความแข็งแกร่งให้กับเลเยอร์ความเป็นส่วนตัวของ Ritual Chain
  • ความปลอดภัย & การวางเดิมพัน: EigenLayer ช่วยรักษาความปลอดภัยและวางเดิมพันบนเครือข่าย
  • ความพร้อมใช้งานของข้อมูล: โมดูล EigenLayer และ Celestia ช่วยเพิ่มความพร้อมใช้งานของข้อมูล ซึ่งมีความสำคัญต่อภาระงาน AI
  1. การขยายแอปพลิเคชัน
  • ทรัพยากรของนักพัฒนา: คู่มือที่ครอบคลุมอธิบายวิธีการตั้งค่าคอนเทนเนอร์ AI รัน PyTorch และรวม GPT-4 หรือ Mistral-7B เข้ากับงานบนเชน ตัวอย่างที่ใช้งานได้จริง เช่น การสร้าง NFT ผ่าน Infernet ช่วยลดอุปสรรคสำหรับผู้มาใหม่
  • การระดมทุน & การเร่งความเร็ว: ตัวเร่ง Ritual Altar และโครงการ Ritual Realm ให้ทุนและคำปรึกษาแก่ทีมที่สร้าง dApps บน Ritual Chain
  • โครงการที่โดดเด่น:
    • Anima: ผู้ช่วย DeFi หลายตัวแทนที่ประมวลผลคำขอภาษาธรรมชาติข้ามการให้ยืม การแลกเปลี่ยน และกลยุทธ์ผลตอบแทน
    • Opus: โทเค็นมีมที่สร้างโดย AI พร้อมการไหลของการซื้อขายตามกำหนดเวลา
    • Relic: รวมโมเดลการทำนายที่ขับเคลื่อนด้วย AI เข้ากับ AMM โดยมีเป้าหมายเพื่อการซื้อขายบนเชนที่ยืดหยุ่นและมีประสิทธิภาพมากขึ้น
    • Tithe: ใช้ ML เพื่อปรับโปรโตคอลการให้ยืมแบบไดนามิก ปรับปรุงผลตอบแทนในขณะที่ลดความเสี่ยง

โดยการจัดแนวการออกแบบผลิตภัณฑ์ ความร่วมมือ และชุด dApps ที่ขับเคลื่อนด้วย AI ที่หลากหลาย Ritual วางตำแหน่งตัวเองเป็นศูนย์กลางหลายแง่มุมสำหรับ Web3 x AI แนวทางที่เน้นระบบนิเวศเป็นอันดับแรกของบริษัท ซึ่งเสริมด้วยการสนับสนุนนักพัฒนาที่เพียงพอและโอกาสในการระดมทุนจริง วางรากฐานสำหรับการนำ AI มาใช้บนเชนในวงกว้าง

มุมมองของ Ritual

แผนผลิตภัณฑ์และระบบนิเวศของ Ritual ดูมีแนวโน้มดี แต่ยังคงมีช่องว่างทางเทคนิคอีกมากที่ต้องแก้ไข นักพัฒนายังคงต้องแก้ปัญหาพื้นฐาน เช่น การตั้งค่าจุดสิ้นสุดการอนุมานโมเดล การเร่งความเร็วงาน AI และการประสานงานโหนดหลายโหนดสำหรับการคำนวณขนาดใหญ่ สำหรับตอนนี้ สถาปัตยกรรมหลักสามารถจัดการกรณีการใช้งานที่ง่ายกว่าได้ ความท้าทายที่แท้จริงคือการสร้างแรงบันดาลใจให้นักพัฒนาสร้างแอปพลิเคชันที่ขับเคลื่อนด้วย AI ที่สร้างสรรค์มากขึ้นบนเชน

ในอนาคต Ritual อาจมุ่งเน้นไปที่การเงินน้อยลงและมุ่งเน้นไปที่การทำให้สินทรัพย์คำนวณหรือโมเดลสามารถซื้อขายได้มากขึ้น สิ่งนี้จะดึงดูดผู้เข้าร่วมและเสริมสร้างความปลอดภัยของเครือข่ายโดยการผูกโทเค็นของเชนเข้ากับภาระงาน AI ที่ใช้งานได้จริง แม้ว่ารายละเอียดเกี่ยวกับการออกแบบโทเค็นจะยังไม่ชัดเจน แต่ก็ชัดเจนว่าวิสัยทัศน์ของ Ritual คือการจุดประกายแอปพลิเคชันที่ซับซ้อน กระจายศูนย์ และขับเคลื่อนด้วย AI รุ่นใหม่—ผลักดัน Web3 ให้ลึกลงไปในดินแดนที่สร้างสรรค์มากขึ้น

Cuckoo Network และ Swan Chain ร่วมมือกันปฏิวัติ AI แบบกระจายศูนย์

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

เรามีความยินดีที่จะประกาศความร่วมมือใหม่ที่น่าตื่นเต้นระหว่าง Cuckoo Network และ Swan Chain ซึ่งเป็นสองพลังบุกเบิกในโลกของ AI แบบกระจายศูนย์และเทคโนโลยีบล็อกเชน ความร่วมมือนี้เป็นก้าวสำคัญในการทำให้การเข้าถึงความสามารถ AI ขั้นสูงเป็นประชาธิปไตยและสร้างระบบนิเวศ AI ที่มีประสิทธิภาพ เข้าถึงได้ และสร้างสรรค์มากขึ้น

Cuckoo Network และ Swan Chain ร่วมมือกันปฏิวัติ AI แบบกระจายศูนย์

เสริมพลัง AI แบบกระจายศูนย์ด้วยทรัพยากร GPU ที่ขยายใหญ่ขึ้น

หัวใจของความร่วมมือนี้คือการรวมทรัพยากร GPU ที่กว้างขวางของ Swan Chain เข้ากับแพลตฟอร์มของ Cuckoo Network โดยการใช้ประโยชน์จากเครือข่ายศูนย์ข้อมูลและผู้ให้บริการคอมพิวเตอร์ทั่วโลกของ Swan Chain Cuckoo Network จะขยายขีดความสามารถในการให้บริการโมเดลภาษาขนาดใหญ่แบบกระจายศูนย์ (LLMs) อย่างมีนัยสำคัญ

การบูรณาการนี้สอดคล้องกับวิสัยทัศน์ของทั้งสองบริษัทอย่างสมบูรณ์แบบ:

  • เป้าหมายของ Cuckoo Network ในการสร้างตลาดการให้บริการโมเดล AI แบบกระจายศูนย์
  • ภารกิจของ Swan Chain ในการเร่งการยอมรับ AI ผ่านโครงสร้างพื้นฐานบล็อกเชนที่ครอบคลุม

img

นำตัวละครอนิเมะที่รักมาสู่ชีวิตด้วย AI

เพื่อแสดงพลังของความร่วมมือนี้ เรารู้สึกตื่นเต้นที่จะประกาศการเปิดตัวครั้งแรกของโมเดลภาษาที่อิงตามตัวละครหลายตัวที่ได้รับแรงบันดาลใจจากตัวเอกอนิเมะที่รัก โมเดลเหล่านี้สร้างขึ้นโดยชุมชนผู้สร้าง Cuckoo ที่มีความสามารถจะทำงานบนทรัพยากร GPU ของ Swan Chain

img

ทั้งแฟน ๆ และนักพัฒนาจะสามารถโต้ตอบและสร้างสรรค์บนโมเดลตัวละครเหล่านี้ เปิดโอกาสใหม่ ๆ สำหรับการเล่าเรื่องที่สร้างสรรค์ การพัฒนาเกม และประสบการณ์แบบโต้ตอบ

ผลประโยชน์ร่วมกันและวิสัยทัศน์ที่ใช้ร่วมกัน

ความร่วมมือนี้รวบรวมจุดแข็งของทั้งสองแพลตฟอร์ม:

  • Cuckoo Network มอบตลาดแบบกระจายศูนย์และความเชี่ยวชาญด้าน AI เพื่อแจกจ่ายและจัดการงาน AI อย่างมีประสิทธิภาพ
  • Swan Chain มีส่วนร่วมในโครงสร้างพื้นฐาน GPU ที่แข็งแกร่ง ตลาด ZK ที่เป็นนวัตกรรม และความมุ่งมั่นในการชดเชยที่เป็นธรรมสำหรับผู้ให้บริการคอมพิวเตอร์

ด้วยกัน เรากำลังทำงานเพื่ออนาคตที่ความสามารถของ AI สามารถเข้าถึงได้มากขึ้น มีประสิทธิภาพ และเป็นธรรมสำหรับนักพัฒนาและผู้ใช้ทั่วโลก

สิ่งที่หมายถึงสำหรับชุมชนของเรา

สำหรับชุมชน Cuckoo Network:

  • การเข้าถึงกลุ่มทรัพยากร GPU ที่กว้างขึ้น ทำให้การประมวลผลเร็วขึ้นและโมเดล AI ที่ซับซ้อนมากขึ้น
  • โอกาสที่ขยายออกไปในการสร้างและสร้างรายได้จากโมเดล AI ที่ไม่ซ้ำใคร
  • ศักยภาพในการลดต้นทุนด้วยโครงสร้างพื้นฐานที่มีประสิทธิภาพของ Swan Chain

สำหรับชุมชน Swan Chain:

  • ช่องทางใหม่ในการสร้างรายได้จากทรัพยากร GPU ผ่านตลาดของ Cuckoo Network
  • การเปิดรับแอปพลิเคชัน AI ที่ล้ำสมัยและชุมชนผู้สร้างที่มีชีวิตชีวา
  • ศักยภาพในการเพิ่มความต้องการและการใช้โครงสร้างพื้นฐานของ Swan Chain

มองไปข้างหน้า

ความร่วมมือนี้เป็นเพียงจุดเริ่มต้น เมื่อเราก้าวไปข้างหน้า เราจะสำรวจวิธีเพิ่มเติมในการรวมเทคโนโลยีของเราและสร้างคุณค่าสำหรับทั้งสองระบบนิเวศ เรารู้สึกตื่นเต้นเป็นพิเศษเกี่ยวกับศักยภาพในการใช้ประโยชน์จากตลาด ZK ของ Swan Chain และโมเดลรายได้พื้นฐานสากลเพื่อสร้างโอกาสมากขึ้นสำหรับผู้ให้บริการ GPU และนักพัฒนา AI

ติดตามการอัปเดตเพิ่มเติมในขณะที่เราเริ่มต้นการเดินทางที่น่าตื่นเต้นนี้ด้วยกัน อนาคตของ AI แบบกระจายศูนย์นั้นสดใส และด้วยพันธมิตรอย่าง Swan Chain เราก็ใกล้จะทำให้อนาคตนั้นเป็นจริง

เราขอเชิญชุมชนทั้งสองเข้าร่วมกับเราในการเฉลิมฉลองความร่วมมือนี้ ด้วยกัน เราไม่ได้แค่สร้างเทคโนโลยี – เรากำลังกำหนดอนาคตของ AI และเสริมสร้างพลังให้กับผู้สร้างทั่วโลก

Cuckoo Network

เพิ่มเติมเกี่ยวกับ Swan Chain