ข้ามไปยังเนื้อหาหลัก

โพสต์หนึ่งโพสต์ แท็กด้วย "AI"

ดูแท็กทั้งหมด

A16Z Crypto: การผสานกันของ AI และ Crypto

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

ปัญญาประดิษฐ์กำลังพลิกโฉมโลกดิจิทัลของเรา ตั้งแต่ผู้ช่วยเขียนโค้ดที่มีประสิทธิภาพไปจนถึงเอนจินสร้างเนื้อหาอันทรงพลัง ศักยภาพของ AI เป็นที่ประจักษ์ อย่างไรก็ตาม ในขณะที่อินเทอร์เน็ตแบบเปิดกำลังถูกแทนที่ด้วย "กล่องข้อความพร้อมท์" (prompt boxes) ส่วนบุคคลทีละน้อย คำถามพื้นฐานก็เกิดขึ้นกับเรา: AI จะนำเราไปสู่อินเทอร์เน็ตที่เปิดกว้างมากขึ้น หรือไปสู่เขาวงกตที่ถูกควบคุมโดยยักษ์ใหญ่ไม่กี่รายและเต็มไปด้วยกำแพงการชำระเงินใหม่ๆ กันแน่?

A16Z Crypto: จุดตัดของ AI และคริปโต

การควบคุม—นั่นคือประเด็นหลัก โชคดีที่เมื่อมีพลังรวมศูนย์ที่ทรงอิทธิพลเกิดขึ้น พลังกระจายศูนย์อีกอย่างหนึ่งก็เติบโตเต็มที่เช่นกัน นี่คือจุดที่คริปโตเข้ามามีบทบาท

บล็อกเชนไม่ใช่แค่เรื่องของสกุลเงินดิจิทัลเท่านั้น แต่เป็นกระบวนทัศน์ทางสถาปัตยกรรมใหม่สำหรับการสร้างบริการอินเทอร์เน็ต—เครือข่ายที่เป็นกลางแบบกระจายศูนย์และไม่จำเป็นต้องพึ่งพาความเชื่อใจ ซึ่งผู้ใช้สามารถเป็นเจ้าของร่วมกันได้ มันมอบชุดเครื่องมืออันทรงพลังให้เราเพื่อตอบโต้แนวโน้มการรวมศูนย์ของโมเดล AI ที่เพิ่มขึ้น เจรจาเศรษฐศาสตร์ที่เป็นรากฐานของระบบในปัจจุบัน และท้ายที่สุดก็บรรลุอินเทอร์เน็ตที่เปิดกว้างและแข็งแกร่งยิ่งขึ้น

แนวคิดนี้ไม่ใช่เรื่องใหม่ แต่ก็มักจะถูกนิยามอย่างคลุมเครือ เพื่อให้การสนทนามีความชัดเจนยิ่งขึ้น เราจะสำรวจสถานการณ์การใช้งาน 11 กรณีที่กำลังถูกสำรวจในทางปฏิบัติอยู่แล้ว สถานการณ์เหล่านี้มีรากฐานมาจากเทคโนโลยีที่กำลังถูกสร้างขึ้นในปัจจุบัน ซึ่งแสดงให้เห็นว่าคริปโตสามารถจัดการกับความท้าทายเร่งด่วนที่สุดที่เกิดจาก AI ได้อย่างไร

ส่วนที่หนึ่ง: อัตลักษณ์—การปรับเปลี่ยน "การมีอยู่" ของเราในโลกดิจิทัล

ในโลกดิจิทัลที่หุ่นยนต์และมนุษย์เริ่มแยกแยะได้ยากขึ้นเรื่อยๆ "คุณคือใคร" และ "สิ่งที่คุณสามารถพิสูจน์ได้" กลายเป็นสิ่งสำคัญอย่างยิ่ง

1. บริบทที่คงอยู่ในการโต้ตอบกับ AI

ปัญหา: เครื่องมือ AI ในปัจจุบันประสบปัญหา "ความจำเสื่อม" ทุกครั้งที่คุณเปิดเซสชัน ChatGPT ใหม่ คุณจะต้องบอกข้อมูลพื้นฐานเกี่ยวกับงาน, ความชอบในการเขียนโปรแกรม, และรูปแบบการสื่อสารของคุณซ้ำอีกครั้ง บริบทของคุณถูกจำกัดอยู่ในแอปพลิเคชันที่แยกจากกันและไม่สามารถย้ายไปใช้ที่อื่นได้

โซลูชันบล็อกเชน: จัดเก็บบริบทของผู้ใช้ (เช่น ความชอบ, ฐานความรู้) ในรูปแบบสินทรัพย์ดิจิทัลที่คงอยู่บนบล็อกเชน ผู้ใช้เป็นเจ้าของและควบคุมข้อมูลนี้ และสามารถอนุญาตให้แอปพลิเคชัน AI ใด ๆ โหลดข้อมูลนี้ได้เมื่อเริ่มต้นเซสชัน สิ่งนี้ไม่เพียงแต่ช่วยให้ประสบการณ์ข้ามแพลตฟอร์มเป็นไปอย่างราบรื่น แต่ยังช่วยให้ผู้ใช้สามารถสร้างรายได้จากความเชี่ยวชาญของตนได้โดยตรง

2. ข้อมูลระบุตัวตนสากลสำหรับ AI Agents

ปัญหา: เมื่อ AI agents เริ่มดำเนินการตามคำสั่งของเรา (เช่น การจอง, การซื้อขาย, การบริการลูกค้า) เราจะระบุตัวตน, ชำระเงิน, และตรวจสอบความสามารถและชื่อเสียงของพวกเขาได้อย่างไร? หากข้อมูลระบุตัวตนของแต่ละ agent ผูกติดอยู่กับแพลตฟอร์มเดียว มูลค่าของมันจะลดลงอย่างมาก

โซลูชันคริปโต: สร้าง "หนังสือเดินทางสากล" ที่ใช้บล็อกเชนสำหรับ AI agent แต่ละตัว หนังสือเดินทางนี้จะรวมกระเป๋าเงิน, การลงทะเบียน API, ประวัติเวอร์ชัน, และระบบชื่อเสียงเข้าไว้ด้วยกัน อินเทอร์เฟซใด ๆ (อีเมล, Slack, หรือ agent อื่น ๆ) สามารถวิเคราะห์และโต้ตอบกับมันได้ในลักษณะเดียวกัน ซึ่งจะสร้างระบบนิเวศของ agent ที่ไม่จำเป็นต้องได้รับอนุญาตและสามารถประกอบเข้าด้วยกันได้

3. การยืนยันความเป็นบุคคลที่รองรับอนาคต

ปัญหา: ดีปเฟค, กองทัพบอทบนโซเชียลมีเดีย, บัญชีปลอมบนแอปหาคู่... การแพร่กระจายของ AI กำลังกัดกร่อนความไว้วางใจของเราในความถูกต้องแท้จริงทางออนไลน์

โซลูชันคริปโต: กลไก "การยืนยันความเป็นบุคคล" แบบกระจายศูนย์ (เช่น World ID) ช่วยให้ผู้ใช้สามารถพิสูจน์ได้ว่าตนเป็นมนุษย์ที่ไม่ซ้ำใคร พร้อมทั้งปกป้องความเป็นส่วนตัว การยืนยันนี้ถูกดูแลโดยผู้ใช้เอง สามารถนำกลับมาใช้ใหม่ได้ในหลายแพลตฟอร์ม และรองรับอนาคต สามารถแยกเครือข่ายมนุษย์ออกจากเครือข่ายเครื่องจักรได้อย่างชัดเจน วางรากฐานสำหรับประสบการณ์ดิจิทัลที่แท้จริงและปลอดภัยยิ่งขึ้น

ส่วนที่สอง: โครงสร้างพื้นฐานแบบกระจายอำนาจ—การปูทางสำหรับ AI แบบเปิด

ความฉลาดของ AI ขึ้นอยู่กับโครงสร้างพื้นฐานทางกายภาพและดิจิทัลที่อยู่เบื้องหลัง การกระจายอำนาจเป็นกุญแจสำคัญในการทำให้มั่นใจว่าโครงสร้างพื้นฐานเหล่านี้จะไม่ถูกผูกขาดโดยคนเพียงไม่กี่คน

4. เครือข่ายโครงสร้างพื้นฐานทางกายภาพแบบกระจายศูนย์ (DePIN) สำหรับ AI

ปัญหา: ความก้าวหน้าของ AI ถูกจำกัดด้วยข้อจำกัดด้านพลังงานการประมวลผลและพลังงาน โดยทรัพยากรเหล่านี้ถูกควบคุมอย่างแน่นหนาโดยผู้ให้บริการคลาวด์ขนาดใหญ่ไม่กี่ราย

โซลูชันคริปโต: DePIN รวบรวมทรัพยากรทางกายภาพที่ไม่ได้ใช้ประโยชน์ทั่วโลกผ่านกลไกจูงใจ—ตั้งแต่คอมพิวเตอร์ของนักเล่นเกมสมัครเล่นไปจนถึงชิปที่ไม่ได้ใช้งานในศูนย์ข้อมูล ซึ่งสร้างตลาดการประมวลผลแบบกระจายศูนย์ที่ไร้การอนุญาต ที่ช่วยลดอุปสรรคในการสร้างสรรค์นวัตกรรม AI ได้อย่างมากและให้การต่อต้านการเซ็นเซอร์

5. โครงสร้างพื้นฐานและมาตรการป้องกันสำหรับการโต้ตอบของ AI Agent

ปัญหา: งานที่ซับซ้อนมักต้องอาศัยความร่วมมือระหว่าง AI Agent เฉพาะทางหลายตัว อย่างไรก็ตาม ส่วนใหญ่แล้ว AI Agent เหล่านี้มักทำงานในระบบปิด ขาดมาตรฐานการโต้ตอบแบบเปิดและตลาดกลาง

โซลูชันคริปโต: บล็อกเชนสามารถเป็น "ช่องทาง" แบบเปิดและมีมาตรฐานสำหรับการโต้ตอบของ AI Agent ตั้งแต่การค้นหาและการเจรจาไปจนถึงการชำระเงิน กระบวนการทั้งหมดสามารถดำเนินการบนเชนได้โดยอัตโนมัติผ่านสัญญาอัจฉริยะ ซึ่งช่วยให้มั่นใจว่าพฤติกรรมของ AI สอดคล้องกับความตั้งใจของผู้ใช้โดยไม่ต้องมีการแทรกแซงจากมนุษย์

6. การซิงค์แอปพลิเคชันที่สร้างด้วย AI

ปัญหา: AI ช่วยให้ใครก็ตามสามารถสร้างซอฟต์แวร์ที่ปรับแต่งได้เองอย่างรวดเร็ว ("Vibe coding") แต่สิ่งนี้กลับนำมาซึ่งความวุ่นวายใหม่: เมื่อแอปพลิเคชันที่ปรับแต่งเองจำนวนนับพันที่เปลี่ยนแปลงอยู่ตลอดเวลาจำเป็นต้องสื่อสารกัน เราจะมั่นใจได้อย่างไรว่าพวกมันยังคงเข้ากันได้?

โซลูชันคริปโต: สร้าง "เลเยอร์การซิงโครไนซ์" บนบล็อกเชน นี่คือโปรโตคอลที่ใช้ร่วมกันและอัปเดตแบบไดนามิก ซึ่งแอปพลิเคชันทั้งหมดสามารถเชื่อมต่อเพื่อรักษาความเข้ากันได้ระหว่างกัน ด้วยแรงจูงใจทางเศรษฐศาสตร์คริปโต นักพัฒนาและผู้ใช้ได้รับการส่งเสริมให้ร่วมกันบำรุงรักษาและปรับปรุงเลเยอร์การซิงค์นี้ ก่อให้เกิดระบบนิเวศที่เติบโตได้ด้วยตนเอง

ส่วนที่สาม: เศรษฐศาสตร์ใหม่และรูปแบบแรงจูงใจ—การปรับเปลี่ยนการสร้างและการกระจายมูลค่า

AI กำลังเข้ามาพลิกโฉมเศรษฐกิจอินเทอร์เน็ตที่มีอยู่เดิม คริปโตมอบชุดเครื่องมือเพื่อปรับกลไกแรงจูงใจให้สอดคล้องกันใหม่ เพื่อให้มั่นใจถึงการชดเชยที่เป็นธรรมสำหรับผู้มีส่วนร่วมทั้งหมดในห่วงโซ่คุณค่า

7. การชำระเงินขนาดเล็กแบบแบ่งปันรายได้

ปัญหา: โมเดล AI สร้างมูลค่าจากการเรียนรู้จากเนื้อหาอินเทอร์เน็ตจำนวนมหาศาล แต่ผู้สร้างเนื้อหาต้นฉบับไม่ได้รับสิ่งใดเลย เมื่อเวลาผ่านไป สิ่งนี้จะบั่นทอนความมีชีวิตชีวาในการสร้างสรรค์ของอินเทอร์เน็ตแบบเปิด

โซลูชันคริปโต: สร้างระบบการระบุแหล่งที่มาและการแบ่งปันรายได้แบบอัตโนมัติ เมื่อพฤติกรรมของ AI เกิดขึ้น (เช่น การสร้างรายงาน หรือการอำนวยความสะดวกในการทำธุรกรรม) สัญญาอัจฉริยะสามารถชำระค่าธรรมเนียมเล็กน้อย (การชำระเงินขนาดเล็ก หรือ การชำระเงินระดับนาโน) ให้กับแหล่งข้อมูลทั้งหมดที่อ้างอิงถึง สิ่งนี้มีความเป็นไปได้ทางเศรษฐกิจ เพราะใช้ประโยชน์จากเทคโนโลยีบล็อกเชนที่มีต้นทุนต่ำ เช่น เลเยอร์ 2

8. ทะเบียนทรัพย์สินทางปัญญา (IP) และแหล่งที่มา

ปัญหา: ในยุคที่ AI สามารถสร้างและผสมผสานเนื้อหาได้อย่างรวดเร็ว กรอบการทำงานทรัพย์สินทางปัญญาแบบดั้งเดิมดูเหมือนจะไม่เพียงพอ

โซลูชันคริปโต: ใช้บล็อกเชนเป็นทะเบียนทรัพย์สินทางปัญญาแบบสาธารณะและไม่สามารถเปลี่ยนแปลงได้ ผู้สร้างสามารถสร้างความเป็นเจ้าของได้อย่างชัดเจนและกำหนดกฎสำหรับการอนุญาตให้ใช้สิทธิ์ การผสมผสาน และการแบ่งปันรายได้ผ่านสัญญาอัจฉริยะที่ตั้งโปรแกรมได้ สิ่งนี้เปลี่ยน AI จากภัยคุกคามต่อผู้สร้างให้กลายเป็นโอกาสใหม่สำหรับการสร้างและกระจายมูลค่า

9. การทำให้ Web Crawler จ่ายเงินสำหรับข้อมูล

ปัญหา: Web Crawler ของบริษัท AI เก็บข้อมูลเว็บไซต์ได้อย่างอิสระ โดยใช้แบนด์วิดท์และทรัพยากรการประมวลผลของเจ้าของเว็บไซต์โดยไม่ได้รับการชดเชย เพื่อตอบโต้ เจ้าของเว็บไซต์จึงเริ่มบล็อก Web Crawler เหล่านี้เป็นจำนวนมาก

โซลูชันคริปโต: สร้างระบบสองทาง: Web Crawler ของ AI จ่ายค่าธรรมเนียมให้กับเว็บไซต์ผ่านการเจรจาบน On-chain เมื่อเก็บข้อมูล ในขณะเดียวกัน ผู้ใช้ที่เป็นมนุษย์สามารถยืนยันตัวตนผ่าน "Proof of Personhood" และเข้าถึงเนื้อหาได้ฟรีต่อไป สิ่งนี้จะชดเชยผู้มีส่วนร่วมในการให้ข้อมูลและปกป้องประสบการณ์ของผู้ใช้ที่เป็นมนุษย์

10. การโฆษณาที่ปรับแต่งได้ ไม่ละเมิดความเป็นส่วนตัว และไม่ "น่ากลัว"

ปัญหา: การโฆษณาในปัจจุบันมักจะไม่เกี่ยวข้องหรือไม่ก็สร้างความไม่สบายใจ เนื่องจากการติดตามข้อมูลผู้ใช้มากเกินไป

โซลูชันคริปโต: ผู้ใช้สามารถอนุญาตให้เอเจนต์ AI ของตนใช้เทคโนโลยีความเป็นส่วนตัว เช่น Zero-Knowledge Proofs (ZKP) เพื่อพิสูจน์คุณสมบัติบางอย่างแก่ผู้ลงโฆษณา โดยไม่เปิดเผยตัวตนส่วนบุคคล สิ่งนี้ทำให้การโฆษณามีความเกี่ยวข้องและมีประโยชน์อย่างมาก ในทางกลับกัน ผู้ใช้สามารถรับไมโครเพย์เมนต์สำหรับการแบ่งปันข้อมูลหรือการโต้ตอบกับโฆษณา ซึ่งเป็นการเปลี่ยนรูปแบบการโฆษณาแบบ "แสวงหาผลประโยชน์" ในปัจจุบันให้กลายเป็นรูปแบบ "การมีส่วนร่วม"

ส่วนที่สี่: การเป็นเจ้าของอนาคตของ AI—การรับรองว่าการควบคุมยังคงอยู่กับผู้ใช้

เมื่อความสัมพันธ์ของเรากับ AI มีความเป็นส่วนตัวและลึกซึ้งมากขึ้นเรื่อย ๆ คำถามเรื่องความเป็นเจ้าของและการควบคุมจึงมีความสำคัญอย่างยิ่ง

11. AI เพื่อนร่วมทางที่มนุษย์เป็นเจ้าของและควบคุม

ปัญหา: ในอนาคตอันใกล้ เราจะมี AI เพื่อนร่วมทางที่อดทนอย่างไม่สิ้นสุดและปรับแต่งได้สูง (สำหรับการศึกษา, การดูแลสุขภาพ, การสนับสนุนทางอารมณ์) แต่ใครจะเป็นผู้ควบคุมความสัมพันธ์เหล่านี้? หากบริษัทเป็นผู้ควบคุม พวกเขาสามารถเซ็นเซอร์, บิดเบือน, หรือแม้กระทั่งลบ AI เพื่อนร่วมทางของคุณได้

โซลูชันคริปโต: โฮสต์ AI เพื่อนร่วมทางบนเครือข่ายกระจายอำนาจที่ทนทานต่อการเซ็นเซอร์ ผู้ใช้สามารถเป็นเจ้าของและควบคุม AI ของตนได้อย่างแท้จริงผ่านกระเป๋าเงินของตนเอง (ด้วยเทคโนโลยี Account Abstraction และเทคโนโลยีสำคัญอื่น ๆ อุปสรรคในการใช้งานจึงลดลงอย่างมาก) ซึ่งหมายความว่าความสัมพันธ์ของคุณกับ AI จะคงอยู่ถาวรและไม่สามารถโอนย้ายได้

บทสรุป: สร้างอนาคตที่เราต้องการ

การบรรจบกันของ AI และคริปโตไม่ใช่แค่การรวมกันของสองเทคโนโลยีที่กำลังเป็นที่นิยมเท่านั้น แต่เป็นการตัดสินใจขั้นพื้นฐานเกี่ยวกับรูปแบบอินเทอร์เน็ตในอนาคต: เราจะก้าวไปสู่ระบบปิดที่ควบคุมโดยไม่กี่บริษัท หรือจะก้าวไปสู่ระบบนิเวศแบบเปิดที่สร้างและเป็นเจ้าของร่วมกันโดยผู้เข้าร่วมทั้งหมด?

สถานการณ์การใช้งานทั้ง 11 รูปแบบนี้ไม่ใช่จินตนาการที่ห่างไกล แต่เป็นทิศทางที่ชุมชนนักพัฒนาทั่วโลกกำลังสำรวจอย่างจริงจัง ซึ่งรวมถึงนักพัฒนาหลายคนใน Cuckoo Network เส้นทางข้างหน้าเต็มไปด้วยความท้าทาย แต่เครื่องมือก็อยู่ในมือของเราแล้ว ถึงเวลาที่จะเริ่มสร้างสรรค์ได้แล้ว

คู่มือฉบับใหม่สำหรับ AI Agent ที่มีความต้องการสูง

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

Generative AI กำลังเปลี่ยนจากแชทบอทที่แปลกใหม่ไปสู่ AI agent ที่สร้างขึ้นเพื่อวัตถุประสงค์เฉพาะ ซึ่งสามารถนำไปใช้ในขั้นตอนการทำงานจริงได้โดยตรง หลังจากได้เห็นการนำไปใช้งานหลายสิบครั้งในทีมดูแลสุขภาพ ความสำเร็จของลูกค้า และทีมข้อมูล พบว่ามีต้นแบบเจ็ดประเภทที่ปรากฏขึ้นอย่างสม่ำเสมอ ตารางเปรียบเทียบด้านล่างนี้แสดงถึงสิ่งที่ AI agent เหล่านี้ทำ เทคโนโลยีที่ขับเคลื่อน และมาตรการรักษาความปลอดภัยที่ผู้ซื้อคาดหวัง

คู่มือฉบับใหม่สำหรับ AI Agent ที่มีความต้องการสูง

🔧 ตารางเปรียบเทียบประเภท AI Agent ที่มีความต้องการสูง

ประเภทกรณีการใช้งานทั่วไปเทคโนโลยีหลักสภาพแวดล้อมบริบทเครื่องมือความปลอดภัยโครงการตัวอย่าง
🏥 AI Agent ทางการแพทย์การวินิจฉัย, คำแนะนำยากราฟความรู้ทางการแพทย์, RLHFเว็บ / แอป / APIการปรึกษาหลายรอบ, เวชระเบียนแนวทางการแพทย์, API ยาHIPAA, การไม่ระบุตัวตนของข้อมูลHealthGPT, K Health
🛎 AI Agent ฝ่ายสนับสนุนลูกค้าคำถามที่พบบ่อย, การคืนสินค้า, โลจิสติกส์RAG, การจัดการบทสนทนาวิดเจ็ตเว็บ / ปลั๊กอิน CRMประวัติการสอบถามของผู้ใช้, สถานะการสนทนาฐานข้อมูลคำถามที่พบบ่อย, ระบบตั๋วบันทึกการตรวจสอบ, การกรองคำที่ละเอียดอ่อนIntercom, LangChain
🏢 ผู้ช่วยองค์กรภายในการค้นหาเอกสาร, คำถามและคำตอบด้าน HRการดึงข้อมูลที่คำนึงถึงสิทธิ์, การฝังข้อมูลSlack / Teams / Intranetข้อมูลประจำตัวการเข้าสู่ระบบ, RBACGoogle Drive, Notion, ConfluenceSSO, การแยกสิทธิ์Glean, GPT + Notion
⚖️ AI Agent ด้านกฎหมายการตรวจสอบสัญญา, การตีความกฎระเบียบการใส่คำอธิบายประกอบข้อความ, การดึงคำถามและคำตอบเว็บ / ปลั๊กอินเอกสารสัญญาปัจจุบัน, ประวัติการเปรียบเทียบฐานข้อมูลกฎหมาย, เครื่องมือ OCRการไม่ระบุตัวตนของสัญญา, บันทึกการตรวจสอบHarvey, Klarity
📚 AI Agent ด้านการศึกษาการอธิบายปัญหา, การสอนพิเศษชุดข้อมูลหลักสูตร, ระบบประเมินผลแอป / แพลตฟอร์มการศึกษาโปรไฟล์นักเรียน, แนวคิดปัจจุบันเครื่องมือแบบทดสอบ, เครื่องมือสร้างการบ้านการปฏิบัติตามข้อมูลเด็ก, ตัวกรองอคติKhanmigo, Zhipu
📊 AI Agent วิเคราะห์ข้อมูลBI แบบสนทนา, รายงานอัตโนมัติการเรียกใช้เครื่องมือ, การสร้าง SQLคอนโซล BI / แพลตฟอร์มภายในสิทธิ์ผู้ใช้, สคีมาเอนจิน SQL, โมดูลแผนภูมิACLs ข้อมูล, การปิดบังข้อมูลSeek AI, Recast
🧑‍🍳 AI Agent ด้านอารมณ์และชีวิตการสนับสนุนทางอารมณ์, ความช่วยเหลือในการวางแผนบทสนทนาตามบุคลิก, หน่วยความจำระยะยาวมือถือ, เว็บ, แอปแชทโปรไฟล์ผู้ใช้, แชทรายวันปฏิทิน, แผนที่, API เพลงตัวกรองความละเอียดอ่อน, การรายงานการละเมิดReplika, MindPal

ทำไมต้องเจ็ดประเภทนี้?

  • ROI ที่ชัดเจน – AI agent แต่ละตัวเข้ามาแทนที่ศูนย์ต้นทุนที่วัดผลได้ เช่น เวลาคัดกรองของแพทย์, การจัดการการสนับสนุนระดับแรก, ผู้ช่วยทนายความด้านสัญญา, นักวิเคราะห์ BI เป็นต้น
  • ข้อมูลส่วนตัวที่สมบูรณ์ – AI agent เหล่านี้เติบโตได้ดีในสภาพแวดล้อมที่บริบทของข้อมูลอยู่หลังการเข้าสู่ระบบ (EHRs, CRMs, อินทราเน็ต) ข้อมูลเดียวกันนี้ยังยกระดับมาตรฐานด้านวิศวกรรมความเป็นส่วนตัว
  • โดเมนที่มีการควบคุม – อุตสาหกรรมดูแลสุขภาพ การเงิน และการศึกษา บังคับให้ผู้ขายต้องถือว่าการปฏิบัติตามข้อกำหนดเป็นคุณสมบัติหลัก ซึ่งสร้างข้อได้เปรียบที่ป้องกันได้

โครงสร้างสถาปัตยกรรมทั่วไป

  • การจัดการหน้าต่างบริบท → ฝัง "หน่วยความจำระยะสั้น" (งานปัจจุบัน) และข้อมูลโปรไฟล์ระยะยาว (บทบาท, สิทธิ์, ประวัติ) เพื่อให้การตอบสนองยังคงเกี่ยวข้องโดยไม่เกิดการหลอน

  • การประสานงานเครื่องมือ → LLM มีความโดดเด่นในการตรวจจับเจตนา; API เฉพาะทางจะทำงานหนัก ผลิตภัณฑ์ที่ประสบความสำเร็จจะรวมทั้งสองส่วนเข้าด้วยกันในขั้นตอนการทำงานที่สะอาด: ลองนึกถึง "ภาษาเข้า, SQL ออก"

  • เลเยอร์ความน่าเชื่อถือและความปลอดภัย → AI agent ที่ใช้งานจริงมาพร้อมกับเอนจินนโยบาย: การปกปิดข้อมูล PHI, ตัวกรองคำหยาบคาย, บันทึกความสามารถในการอธิบาย, การจำกัดอัตรา คุณสมบัติเหล่านี้เป็นตัวตัดสินข้อตกลงระดับองค์กร

รูปแบบการออกแบบที่แยกผู้นำออกจากต้นแบบ

  • ขอบเขตแคบ, การผสานรวมที่ลึกซึ้ง – มุ่งเน้นไปที่งานที่มีมูลค่าสูงเพียงงานเดียว (เช่น ใบเสนอราคาต่ออายุ) แต่ผสานรวมเข้ากับระบบบันทึกเพื่อให้การนำไปใช้รู้สึกเป็นธรรมชาติ

  • มาตรการป้องกันที่ผู้ใช้มองเห็นได้ – แสดงการอ้างอิงแหล่งที่มาหรือมุมมองความแตกต่างสำหรับการทำเครื่องหมายสัญญา ความโปร่งใสจะเปลี่ยนผู้ที่สงสัยในด้านกฎหมายและการแพทย์ให้กลายเป็นผู้สนับสนุน

  • การปรับแต่งอย่างต่อเนื่อง – รวบรวมข้อมูลป้อนกลับ (กดถูกใจ/ไม่ถูกใจ, SQL ที่แก้ไขแล้ว) เพื่อเสริมความแข็งแกร่งของโมเดลต่อกรณีพิเศษเฉพาะโดเมน

ผลกระทบต่อกลยุทธ์การเข้าสู่ตลาด

  • แนวตั้งดีกว่าแนวนอน การขาย "ผู้ช่วย PDF ที่ใช้ได้กับทุกขนาด" เป็นเรื่องยาก "เครื่องมือสรุปบันทึกรังสีวิทยาที่เชื่อมต่อกับ Epic" จะปิดการขายได้เร็วกว่าและมี ACV สูงกว่า

  • การผสานรวมคือปราการป้องกัน การเป็นพันธมิตรกับผู้จำหน่าย EMR, CRM หรือ BI จะช่วยป้องกันคู่แข่งได้อย่างมีประสิทธิภาพมากกว่าขนาดของโมเดลเพียงอย่างเดียว

  • การปฏิบัติตามข้อกำหนดคือการตลาด การรับรอง (HIPAA, SOC 2, GDPR) ไม่ใช่แค่การทำเครื่องหมายในช่องสี่เหลี่ยม แต่กลายเป็นเนื้อหาโฆษณาและเครื่องมือในการเอาชนะข้อโต้แย้งสำหรับผู้ซื้อที่หลีกเลี่ยงความเสี่ยง

เส้นทางข้างหน้า

เรายังอยู่ในช่วงเริ่มต้นของวงจร AI agent คลื่นลูกต่อไปจะทำให้หมวดหมู่ต่างๆ คลุมเครือ ลองจินตนาการถึงบอทพื้นที่ทำงานเดียวที่ตรวจสอบสัญญา ร่างใบเสนอราคาต่ออายุ และเปิดเคสสนับสนุนหากเงื่อนไขมีการเปลี่ยนแปลง จนกว่าจะถึงเวลานั้น ทีมที่เชี่ยวชาญในการจัดการบริบท การประสานงานเครื่องมือ และความปลอดภัยที่แข็งแกร่ง จะสามารถคว้าส่วนแบ่งงบประมาณที่เติบโตขึ้นได้มากที่สุด

ตอนนี้เป็นเวลาที่จะเลือกแนวตั้งของคุณ ฝังตัวในที่ที่ข้อมูลอยู่ และส่งมอบมาตรการป้องกันเป็นคุณสมบัติ ไม่ใช่สิ่งที่คิดขึ้นภายหลัง

เหนือกว่ากระแส: เจาะลึก Hebbia แพลตฟอร์ม AI สำหรับงานความรู้เชิงลึก

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

เหนือกว่ากระแส: เจาะลึก Hebbia แพลตฟอร์ม AI สำหรับงานความรู้เชิงลึก

คำมั่นสัญญาของปัญญาประดิษฐ์ได้ก้องกังวานไปทั่วห้องประชุมและสำนักงานมานานหลายปี: อนาคตที่งานที่น่าเบื่อและต้องใช้ข้อมูลจำนวนมากจะถูกทำให้เป็นอัตโนมัติ ปลดปล่อยผู้เชี่ยวชาญให้มุ่งเน้นไปที่กลยุทธ์และการตัดสินใจ อย่างไรก็ตาม สำหรับมืออาชีพหลายคนในสาขาที่มีความเสี่ยงสูง เช่น การเงินและกฎหมาย คำมั่นสัญญานั้นกลับรู้สึกว่างเปล่า เครื่องมือ AI มาตรฐาน ตั้งแต่การค้นหาด้วยคำหลักง่ายๆ ไปจนถึงแชทบอทเจเนอเรชันแรก มักจะทำได้ไม่ดีพอ โดยประสบปัญหาในการให้เหตุผล สังเคราะห์ หรือจัดการกับปริมาณข้อมูลมหาศาลที่จำเป็นสำหรับการวิเคราะห์เชิงลึก

แพลตฟอร์ม AI ของ Hebbia

ขอแนะนำ Hebbia บริษัทที่วางตำแหน่งตัวเองไม่ใช่แค่แชทบอทอีกตัว แต่เป็น AI ที่คุณได้รับคำมั่นสัญญาไว้จริงๆ ด้วยแพลตฟอร์ม "Matrix" ของ Hebbia กำลังสร้างข้อโต้แย้งที่น่าสนใจว่าได้ถอดรหัสสำหรับงานความรู้ที่ซับซ้อนได้สำเร็จ โดยก้าวข้ามจากการถามตอบง่ายๆ ไปสู่การวิเคราะห์แบบครบวงจร บทความเชิงวัตถุประสงค์นี้จะเจาะลึกว่า Hebbia คืออะไร ทำงานอย่างไร และเหตุใดจึงได้รับความสนใจอย่างมากในอุตสาหกรรมที่ต้องการความแม่นยำสูงที่สุดบางแห่งของโลก

ปัญหา: เมื่อ AI ที่ "ดีพอ" ไม่ดีพอ

พนักงานที่ทำงานด้านความรู้กำลังจมอยู่กับข้อมูล นักวิเคราะห์การลงทุน ทนายความองค์กร และที่ปรึกษา M&A มักจะคัดกรองเอกสารหลายพันฉบับ ทั้งสัญญา รายงานทางการเงิน และรายงานต่างๆ เพื่อค้นหาข้อมูลเชิงลึกที่สำคัญ รายละเอียดที่พลาดไปเพียงเล็กน้อยอาจส่งผลให้เกิดความเสียหายหลายล้านดอลลาร์

เครื่องมือแบบดั้งเดิมพิสูจน์แล้วว่าไม่เพียงพอ การค้นหาด้วยคำหลักนั้นไม่สะดวกและขาดบริบท ระบบ Retrieval-Augmented Generation (RAG) รุ่นแรกๆ ที่ออกแบบมาเพื่ออ้างอิง AI กับเอกสารเฉพาะ มักจะแค่พูดซ้ำวลีหรือล้มเหลวเมื่อคำถามต้องการการสังเคราะห์ข้อมูลจากหลายแหล่ง ถาม AI พื้นฐานว่า "นี่เป็นการลงทุนที่ดีหรือไม่?" และคุณอาจได้รับสรุปภาษาการตลาดที่ดูดี ไม่ใช่การวิเคราะห์ปัจจัยเสี่ยงที่เข้มงวดซึ่งซ่อนอยู่ในเอกสาร SEC นี่คือช่องว่างที่ Hebbia ตั้งเป้าหมาย: ช่องว่างระหว่างศักยภาพของ AI กับความต้องการของงานมืออาชีพที่จริงจัง

ทางออก: "Matrix" - นักวิเคราะห์ AI ไม่ใช่แชทบอท

โซลูชันของ Hebbia คือแพลตฟอร์ม AI ที่เรียกว่า Matrix ซึ่งออกแบบมาให้ทำงานคล้ายนักวิเคราะห์ที่มีประสิทธิภาพสูงเหนือมนุษย์ มากกว่าที่จะเป็นคู่สนทนา แทนที่จะเป็นอินเทอร์เฟซแชท ผู้ใช้จะเห็นตารางแบบสเปรดชีตที่ทำงานร่วมกันได้

นี่คือวิธีการทำงาน:

  • นำเข้าได้ทุกอย่างและทั้งหมด: ผู้ใช้สามารถอัปโหลดข้อมูลที่ไม่มีโครงสร้างจำนวนมหาศาล ทั้งไฟล์ PDF, เอกสาร Word, บทถอดเสียง และแม้แต่รูปภาพที่สแกน ระบบของ Hebbia ได้รับการออกแบบมาเพื่อรองรับ "หน้าต่างบริบท" ที่แทบจะ "ไร้ขีดจำกัด" ซึ่งหมายความว่าสามารถเชื่อมโยงข้อมูลข้ามหน้ากระดาษนับล้านได้โดยไม่ถูกจำกัดด้วยขีดจำกัดโทเค็นของ LLM ทั่วไป
  • ประสานงาน AI Agents: ผู้ใช้กำหนดงานที่ซับซ้อน ไม่ใช่แค่คำถามเดียว ตัวอย่างเช่น "วิเคราะห์ความเสี่ยงหลักและแรงกดดันในการแข่งขันที่กล่าวถึงในการประชุมผลประกอบการสองปีล่าสุดสำหรับห้าบริษัทนี้" Matrix จะแบ่งงานนี้ออกเป็นงานย่อยๆ โดยมอบหมาย "เอเจนต์" AI ให้กับแต่ละงาน
  • ผลลัพธ์ที่มีโครงสร้างและตรวจสอบย้อนกลับได้: ผลลัพธ์จะถูกเติมลงในตารางที่มีโครงสร้าง แต่ละแถวอาจเป็นบริษัทหรือเอกสาร และแต่ละคอลัมน์เป็นคำตอบสำหรับคำถามย่อย (เช่น "การเติบโตของรายได้", "ปัจจัยเสี่ยงหลัก") ที่สำคัญคือ ผลลัพธ์ทุกรายการมีการอ้างอิง ผู้ใช้สามารถคลิกที่เซลล์ใดก็ได้เพื่อดูข้อความที่แน่นอนจากเอกสารต้นฉบับที่ AI ใช้ในการสร้างคำตอบ ซึ่งช่วยขจัดปัญหาการสร้างข้อมูลที่ผิดพลาดและให้ความโปร่งใสอย่างเต็มที่

แนวทาง "แสดงวิธีการทำงาน" นี้เป็นรากฐานสำคัญของการออกแบบของ Hebbia ซึ่งสร้างความไว้วางใจและช่วยให้ผู้เชี่ยวชาญสามารถตรวจสอบการให้เหตุผลของ AI ได้ เช่นเดียวกับที่พวกเขาทำกับนักวิเคราะห์รุ่นเยาว์

เทคโนโลยี: ทำไมถึงแตกต่าง

พลังของ Hebbia อยู่ที่สถาปัตยกรรม ISD (Inference, Search, Decomposition) ที่เป็นกรรมสิทธิ์ของตนเอง ระบบนี้ก้าวข้าม RAG พื้นฐานเพื่อสร้างวงจรการวิเคราะห์ที่แข็งแกร่งยิ่งขึ้น:

  1. การแยกย่อย (Decomposition): มันจะแบ่งคำขอที่ซับซ้อนของผู้ใช้ออกเป็นขั้นตอนย่อยๆ ที่มีเหตุผลอย่างชาญฉลาด
  2. การค้นหา (Search): สำหรับแต่ละขั้นตอน มันจะทำการค้นหาขั้นสูงแบบวนซ้ำเพื่อดึงข้อมูลที่เกี่ยวข้องที่สุดจากชุดข้อมูลทั้งหมด นี่ไม่ใช่การดึงข้อมูลครั้งเดียวแล้วจบ แต่เป็นกระบวนการแบบเรียกซ้ำที่ AI สามารถค้นหาข้อมูลเพิ่มเติมได้จากสิ่งที่ค้นพบแล้ว
  3. การอนุมาน (Inference): เมื่อรวบรวมบริบทที่ถูกต้องแล้ว โมเดลภาษาขนาดใหญ่ (LLMs) ที่ทรงพลังจะถูกนำมาใช้เพื่อการให้เหตุผล สังเคราะห์ และสร้างคำตอบสุดท้ายสำหรับขั้นตอนนั้น

เวิร์กโฟลว์ทั้งหมดนี้ได้รับการจัดการโดยเอนจินการประสานงานที่สามารถรันกระบวนการเหล่านี้พร้อมกันได้หลายพันรายการ ส่งมอบผลลัพธ์ในไม่กี่นาทีซึ่งทีมงานมนุษย์ต้องใช้เวลาหลายสัปดาห์ในการดำเนินการ ด้วยการเป็นโมเดลที่ไม่จำกัด Hebbia สามารถเชื่อมต่อกับ LLM ที่ดีที่สุด (เช่น โมเดลล่าสุดของ OpenAI) เพื่อเพิ่มขีดความสามารถในการให้เหตุผลอย่างต่อเนื่อง

การใช้งานจริงและผลกระทบ

หลักฐานที่น่าสนใจที่สุดของมูลค่าของ Hebbia คือการนำไปใช้โดยฐานลูกค้าที่ชาญฉลาด บริษัทรายงานว่า 30% ของบริษัทจัดการสินทรัพย์ 50 อันดับแรกตาม AUM เป็นลูกค้าอยู่แล้ว บริษัทชั้นนำอย่าง Centerview Partners และ Charlesbank Capital รวมถึงสำนักงานกฎหมายขนาดใหญ่ กำลังรวม Hebbia เข้ากับเวิร์กโฟลว์หลักของพวกเขา

กรณีการใช้งานมีประสิทธิภาพ:

  • ในช่วงวิกฤต SVB ปี 2023 ผู้จัดการสินทรัพย์ใช้ Hebbia เพื่อระบุความเสี่ยงต่อธนาคารภูมิภาคได้ทันที โดยการวิเคราะห์เอกสารพอร์ตโฟลิโอนับล้านหน้า
  • บริษัทไพรเวทอิควิตี้ สร้าง "คลังข้อตกลง" เพื่อเปรียบเทียบโอกาสการลงทุนใหม่ๆ กับเงื่อนไขและผลการดำเนินงานของข้อตกลงที่ผ่านมาทั้งหมด
  • สำนักงานกฎหมาย ดำเนินการตรวจสอบสถานะโดยให้ Hebbia อ่านสัญญาหลายพันฉบับเพื่อระบุข้อกำหนดที่ไม่เป็นไปตามมาตรฐาน ซึ่งให้ความได้เปรียบที่ขับเคลื่อนด้วยข้อมูลในการเจรจา

ผลตอบแทนจากการลงทุนมักจะเกิดขึ้นทันทีและมีนัยสำคัญ โดยผู้ใช้รายงานว่างานที่เคยใช้เวลาหลายชั่วโมง ตอนนี้เสร็จสิ้นในไม่กี่นาที ทำให้ได้ข้อมูลเชิงลึกที่ไม่เคยสามารถค้นพบได้มาก่อน

ผู้นำ, การระดมทุน และความได้เปรียบในการแข่งขัน

Hebbia ก่อตั้งขึ้นในปี 2020 โดย George Sivulka ผู้ที่ลาออกจากหลักสูตรปริญญาเอก AI ของ Stanford โดยมีพื้นฐานด้านคณิตศาสตร์และฟิสิกส์ประยุกต์ วิสัยทัศน์ทางเทคนิคของเขา ผนวกกับทีมงานอดีตผู้เชี่ยวชาญด้านการเงินและกฎหมาย ได้สร้างผลิตภัณฑ์ที่เข้าใจเวิร์กโฟลว์ของผู้ใช้อย่างลึกซึ้ง

วิสัยทัศน์นี้ดึงดูดการสนับสนุนที่สำคัญ Hebbia ระดมทุนได้ประมาณ 161 ล้านดอลลาร์ โดยมีการระดมทุน Series B ล่าสุดนำโดย Andreessen Horowitz (a16z) และมีนักลงทุนที่มีชื่อเสียงเช่น Peter Thiel และอดีต CEO ของ Google Eric Schmidt ซึ่งทำให้มูลค่าของบริษัทอยู่ที่ประมาณ 700 ล้านดอลลาร์ เป็นข้อพิสูจน์ถึงความเชื่อมั่นของนักลงทุนในศักยภาพที่จะกำหนดหมวดหมู่ใหม่ของ AI ระดับองค์กร

ในขณะที่คู่แข่งอย่าง Glean มุ่งเน้นไปที่การค้นหาทั่วทั้งองค์กร และ Harvey กำหนดเป้าหมายงานเฉพาะด้านกฎหมาย Hebbia สร้างความแตกต่างด้วยการมุ่งเน้นไปที่เวิร์กโฟลว์การวิเคราะห์แบบครบวงจรหลายขั้นตอนที่สามารถนำไปใช้ได้กับหลายโดเมน แพลตฟอร์มของ Hebbia ไม่ใช่แค่สำหรับการค้นหาข้อมูล แต่สำหรับการผลิตผลงานการวิเคราะห์ที่มีโครงสร้าง

ข้อสรุป

Hebbia เป็นบริษัทที่ควรค่าแก่การจับตามอง ด้วยการมุ่งเน้นไปที่ผลิตภัณฑ์ที่สะท้อนเวิร์กโฟลว์ที่เป็นระบบของนักวิเคราะห์มนุษย์ ซึ่งสมบูรณ์ด้วยผลลัพธ์ที่มีโครงสร้างและการอ้างอิงที่ตรวจสอบได้ ทำให้ Hebbia สร้างเครื่องมือที่มืออาชีพในสภาพแวดล้อมที่มีความเสี่ยงสูงยินดีที่จะไว้วางใจ ความสามารถของแพลตฟอร์มในการวิเคราะห์เชิงลึกข้ามเอกสารในวงกว้างเป็นก้าวสำคัญสู่การเติมเต็มคำมั่นสัญญาอันยาวนานของ AI ในองค์กร

แม้ว่าภูมิทัศน์ของ AI จะมีการเปลี่ยนแปลงอยู่ตลอดเวลา แต่การออกแบบที่เน้นเวิร์กโฟลว์อย่างรอบคอบของ Hebbia และการนำไปใช้ที่น่าประทับใจโดยบริษัทชั้นนำ ชี้ให้เห็นว่า Hebbia ได้สร้างความได้เปรียบที่ยั่งยืน มันอาจเป็นแพลตฟอร์มแรกที่ส่งมอบไม่เพียงแค่การช่วยเหลือด้วย AI แต่เป็นการวิเคราะห์ที่ขับเคลื่อนด้วย AI อย่างแท้จริง

LLM กำลังกำหนดนิยามใหม่ของการสนทนาและทิศทางต่อไปของเราได้อย่างไร

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

Large Language Models (LLMs) เช่น ChatGPT, Gemini และ Claude ไม่ใช่แค่แนวคิดแห่งอนาคตอีกต่อไป แต่กำลังขับเคลื่อนเครื่องมือสนทนารูปแบบใหม่ที่กำลังเปลี่ยนแปลงวิธีการเรียนรู้ การทำงาน การซื้อของ และแม้กระทั่งการดูแลความเป็นอยู่ที่ดีของเรา ปัญญาประดิษฐ์ที่น่าทึ่งเหล่านี้สามารถสนทนาได้อย่างเป็นธรรมชาติเหมือนมนุษย์ เข้าใจความตั้งใจ และสร้างข้อความที่ลึกซึ้ง เปิดโลกแห่งความเป็นไปได้ใหม่ๆ

LLM กำลังพลิกโฉมการสนทนา และก้าวต่อไปของเรา

ตั้งแต่ติวเตอร์ส่วนตัวที่ปรับให้เข้ากับสไตล์การเรียนรู้ของแต่ละบุคคล ไปจนถึงตัวแทนบริการลูกค้าที่ไม่รู้จักเหน็ดเหนื่อย LLM กำลังถูกถักทอเข้ากับชีวิตดิจิทัลของเรา แต่ในขณะที่ความสำเร็จนั้นน่าประทับใจ การเดินทางยังอีกยาวไกล มาสำรวจภูมิทัศน์ปัจจุบันของโซลูชันที่ใช้การสนทนาเหล่านี้ ทำความเข้าใจว่าอะไรทำให้มันทำงานได้ ระบุช่องว่างที่ยังคงมีอยู่ และค้นพบโอกาสที่น่าตื่นเต้นที่รออยู่ข้างหน้า

LLMs ในการปฏิบัติ: พลิกโฉมอุตสาหกรรมด้วยการสนทนาทีละครั้ง

ผลกระทบของ LLMs กำลังแพร่หลายในหลากหลายภาคส่วน:

1. การศึกษาและการเรียนรู้: การมาถึงของ AI ติวเตอร์

การศึกษาได้เปิดรับการสนทนาที่ขับเคลื่อนด้วย LLM อย่างกระตือรือร้น

  • Khanmigo ของ Khan Academy (ขับเคลื่อนโดย GPT-4) ทำหน้าที่เป็นโสกราตีสเสมือนจริง โดยนำพานักเรียนผ่านปัญหาด้วยคำถามที่กระตุ้นความคิดมากกว่าการให้คำตอบโดยตรง ซึ่งส่งเสริมความเข้าใจที่ลึกซึ้งยิ่งขึ้น นอกจากนี้ยังช่วยครูในการวางแผนบทเรียนอีกด้วย
  • Duolingo Max ใช้ประโยชน์จาก GPT-4 สำหรับคุณสมบัติต่างๆ เช่น "Roleplay" (ฝึกสนทนาในสถานการณ์จริงกับ AI) และ "Explain My Answer" (ให้ข้อเสนอแนะด้านไวยากรณ์และคำศัพท์ที่ปรับให้เหมาะกับแต่ละบุคคล) ซึ่งช่วยแก้ไขช่องว่างสำคัญในการเรียนรู้ภาษา
  • Q-Chat ของ Quizlet (แม้ว่ารูปแบบเริ่มต้นจะกำลังพัฒนาอยู่) มีเป้าหมายที่จะทดสอบนักเรียนในลักษณะโสกราตีส AI ของพวกเขายังช่วยสรุปข้อความและสร้างสื่อการเรียนรู้
  • CheggMate ซึ่งเป็นคู่หูการเรียนรู้ที่ขับเคลื่อนด้วย GPT-4 ได้รวมเข้ากับคลังเนื้อหาของ Chegg เพื่อนำเสนอเส้นทางการเรียนรู้ที่ปรับให้เหมาะกับแต่ละบุคคลและการแก้ปัญหาแบบทีละขั้นตอน

เครื่องมือเหล่านี้มีเป้าหมายเพื่อปรับการเรียนรู้ให้เป็นส่วนตัวและทำให้ความช่วยเหลือตามความต้องการน่าสนใจยิ่งขึ้น

2. การสนับสนุนและบริการลูกค้า: การแก้ไขปัญหาที่ฉลาดขึ้นและรวดเร็วขึ้น

LLMs กำลังปฏิวัติการบริการลูกค้าโดยเปิดใช้งานการสนทนาที่เป็นธรรมชาติและหลายรอบ ซึ่งสามารถแก้ไขคำถามได้หลากหลายยิ่งขึ้น

  • Fin ของ Intercom (อิงตาม GPT-4) เชื่อมต่อกับฐานความรู้ของบริษัทเพื่อตอบคำถามลูกค้าในลักษณะการสนทนา ซึ่งช่วยลดปริมาณการสนับสนุนได้อย่างมากโดยการจัดการปัญหาทั่วไปได้อย่างมีประสิทธิภาพ
  • Zendesk ใช้ "AI แบบตัวแทน" โดยใช้โมเดลอย่าง GPT-4 ร่วมกับ Retrieval-Augmented Generation ซึ่งตัวแทน LLM เฉพาะทางหลายตัวทำงานร่วมกันเพื่อทำความเข้าใจเจตนา ดึงข้อมูล และแม้กระทั่งดำเนินการแก้ไขปัญหา เช่น การประมวลผลการคืนเงิน
  • แพลตฟอร์มอย่าง Salesforce (Einstein GPT) และ Slack (แอป ChatGPT) กำลังฝัง LLMs เพื่อช่วยตัวแทนสนับสนุนสรุปเธรด ค้นหาความรู้ภายใน และร่างการตอบกลับ ซึ่งช่วยเพิ่มประสิทธิภาพการทำงาน

เป้าหมายคือการสนับสนุนตลอด 24 ชั่วโมงทุกวัน ที่เข้าใจภาษาและความตั้งใจของลูกค้า ทำให้ตัวแทนที่เป็นมนุษย์มีเวลาสำหรับกรณีที่ซับซ้อน

3. เครื่องมือเพิ่มประสิทธิภาพและเครื่องมือในที่ทำงาน: AI ผู้ช่วยส่วนตัวของคุณในการทำงาน

ผู้ช่วย AI กำลังกลายเป็นส่วนสำคัญของเครื่องมือระดับมืออาชีพในชีวิตประจำวัน

  • Microsoft 365 Copilot (รวม GPT-4 เข้ากับ Word, Excel, PowerPoint, Outlook, Teams) ช่วยร่างเอกสาร วิเคราะห์ข้อมูลด้วยการสอบถามภาษาธรรมชาติ สร้างงานนำเสนอ สรุปอีเมล และแม้กระทั่งสรุปการประชุมพร้อมรายการดำเนินการ
  • Duet AI ของ Google Workspace นำเสนอความสามารถที่คล้ายกันใน Google Docs, Gmail, Sheets และ Meet
  • Notion AI ช่วยในการเขียน สรุป และระดมสมองได้โดยตรงภายในพื้นที่ทำงานของ Notion
  • ผู้ช่วยเขียนโค้ดอย่าง GitHub Copilot และ Amazon CodeWhisperer ใช้ LLMs เพื่อแนะนำโค้ดและเร่งความเร็วในการพัฒนา

เครื่องมือเหล่านี้มีเป้าหมายที่จะทำให้ "งานยุ่ง" เป็นไปโดยอัตโนมัติ ทำให้ผู้เชี่ยวชาญสามารถมุ่งเน้นไปที่งานหลักได้

4. สุขภาพจิตและสุขภาวะ: ผู้ฟังที่เข้าใจ (ดิจิทัล)

LLMs กำลังปรับปรุงแชทบอทด้านสุขภาพจิต ทำให้เป็นธรรมชาติและเป็นส่วนตัวมากขึ้น พร้อมทั้งคำนึงถึงข้อควรพิจารณาด้านความปลอดภัยที่สำคัญ

  • แอปอย่าง Wysa และ Woebot กำลังผสานรวม LLMs อย่างระมัดระวัง เพื่อก้าวข้ามเทคนิคการบำบัดพฤติกรรมทางปัญญา (CBT) ที่เป็นสคริปต์ โดยนำเสนอการสนับสนุนการสนทนาที่ยืดหยุ่นและเห็นอกเห็นใจมากขึ้นสำหรับความเครียดในชีวิตประจำวันและการจัดการอารมณ์
  • Replika ซึ่งเป็นแอป AI เพื่อนคู่คิด ใช้ LLMs เพื่อสร้าง "เพื่อน" ส่วนตัวที่สามารถสนทนาแบบปลายเปิดได้ ซึ่งมักจะช่วยผู้ใช้ต่อสู้กับความเหงา

เครื่องมือเหล่านี้ให้การสนับสนุนที่เข้าถึงได้ตลอด 24 ชั่วโมงทุกวัน และไม่ตัดสินใคร แม้ว่าพวกเขาจะวางตำแหน่งตัวเองเป็นโค้ชหรือเพื่อนร่วมทาง ไม่ใช่สิ่งทดแทนการดูแลทางคลินิก

5. อีคอมเมิร์ซและการค้าปลีก: AI ผู้ช่วยช้อปปิ้งส่วนตัว

LLMs ที่ใช้การแชทกำลังทำให้การช้อปปิ้งออนไลน์มีการโต้ตอบและเป็นส่วนตัวมากขึ้น

  • แอป Shop ของ Shopify มีผู้ช่วยที่ขับเคลื่อนด้วย ChatGPT ซึ่งนำเสนอคำแนะนำผลิตภัณฑ์ที่ปรับให้เหมาะกับแต่ละบุคคลตามการสอบถามและประวัติของผู้ใช้ เลียนแบบประสบการณ์ในร้านค้า Shopify ยังมีเครื่องมือ AI สำหรับผู้ค้าในการสร้างคำอธิบายผลิตภัณฑ์และข้อความทางการตลาด
  • ปลั๊กอิน ChatGPT ของ Instacart ช่วยในการวางแผนมื้ออาหารและการซื้อของชำผ่านการสนทนา
  • ปลั๊กอินของ Klarna สำหรับ ChatGPT ทำหน้าที่เป็นเครื่องมือค้นหาและเปรียบเทียบผลิตภัณฑ์
  • AI ยังถูกใช้เพื่อสรุปรีวิวลูกค้าจำนวนมากให้เป็นข้อดีข้อเสียที่กระชับ ช่วยให้ผู้ซื้อตัดสินใจได้เร็วขึ้น

ผู้ช่วย AI เหล่านี้แนะนำลูกค้า ตอบคำถาม และปรับแต่งคำแนะนำ โดยมีเป้าหมายเพื่อเพิ่มยอดขายและความพึงพอใจ

โครงสร้างของความสำเร็จ: อะไรที่ทำให้เครื่องมือแชท LLM มีประสิทธิภาพ?

ในการใช้งานที่หลากหลายเหล่านี้ ส่วนประกอบสำคัญหลายประการมีส่วนช่วยให้โซลูชันแชทที่ขับเคลื่อนด้วย LLM มีประสิทธิภาพ:

  • ความเข้าใจภาษาขั้นสูง: LLM ที่ล้ำสมัยสามารถตีความข้อมูลที่ซับซ้อนและอิสระจากผู้ใช้ และตอบสนองได้อย่างคล่องแคล่วและเหมาะสมกับบริบท ทำให้การโต้ตอบรู้สึกเป็นธรรมชาติ
  • การบูรณาการความรู้เฉพาะทาง: การอ้างอิงคำตอบของ LLM ด้วยฐานข้อมูลที่เกี่ยวข้อง, เนื้อหาเฉพาะของบริษัท, หรือข้อมูลแบบเรียลไทม์ (บ่อยครั้งผ่าน Retrieval-Augmented Generation) ช่วยเพิ่มความแม่นยำและประโยชน์ใช้สอยได้อย่างมาก
  • การมุ่งเน้นปัญหา/ความต้องการที่ชัดเจน: เครื่องมือที่ประสบความสำเร็จจะมุ่งเป้าไปที่ปัญหาที่แท้จริงของผู้ใช้ และปรับบทบาทของ AI เพื่อแก้ไขปัญหาเหล่านั้นได้อย่างมีประสิทธิภาพ แทนที่จะใช้ AI เพียงเพื่อตัวมันเอง
  • ประสบการณ์ผู้ใช้ (UX) ที่ราบรื่น: การฝังความช่วยเหลือจาก AI เข้าสู่ขั้นตอนการทำงานและแพลตฟอร์มที่มีอยู่ได้อย่างราบรื่น พร้อมด้วยการออกแบบที่ใช้งานง่ายและการควบคุมของผู้ใช้ ช่วยเพิ่มการนำไปใช้และประโยชน์ใช้สอย
  • ความน่าเชื่อถือและความปลอดภัยทางเทคนิค: การใช้มาตรการเพื่อยับยั้งการสร้างข้อมูลที่ผิดพลาด (hallucinations), เนื้อหาที่ไม่เหมาะสม และข้อผิดพลาด—เช่น การปรับแต่ง (fine-tuning), ระบบป้องกัน (guardrail systems), และตัวกรองเนื้อหา—เป็นสิ่งสำคัญสำหรับการสร้างความไว้วางใจของผู้ใช้
  • ความพร้อมของตลาดและคุณค่าที่รับรู้: เครื่องมือเหล่านี้ตอบสนองความคาดหวังของผู้ใช้ที่เพิ่มขึ้นสำหรับซอฟต์แวร์ที่ชาญฉลาดมากขึ้น โดยมอบประโยชน์ที่จับต้องได้ เช่น การประหยัดเวลาหรือความสามารถที่เพิ่มขึ้น

พิจารณาช่องว่าง: ความต้องการที่ยังไม่ได้รับการตอบสนองในภูมิทัศน์การสนทนาของ LLM

แม้จะมีความก้าวหน้าอย่างรวดเร็ว แต่ก็ยังคงมีช่องว่างที่สำคัญและความต้องการที่ยังไม่ได้รับการตอบสนองอยู่:

  • ความน่าเชื่อถือของข้อเท็จจริงและความไว้วางใจ: ปัญหา "การสร้างข้อมูลเท็จ" (hallucination) ยังคงมีอยู่ สำหรับโดเมนที่มีความเสี่ยงสูง เช่น การแพทย์ กฎหมาย หรือการเงิน ระดับความถูกต้องของข้อเท็จจริงในปัจจุบันไม่เพียงพอเสมอไปสำหรับแชทบอทที่หันหน้าเข้าหาผู้บริโภคที่เชื่อถือได้และทำงานได้ด้วยตนเองอย่างเต็มที่
  • การจัดการงานที่ซับซ้อนและเฉพาะทาง: แม้จะเป็นผู้เชี่ยวชาญทั่วไปที่ยอดเยี่ยม แต่ LLM อาจประสบปัญหาในการวางแผนหลายขั้นตอน การใช้เหตุผลเชิงวิพากษ์อย่างลึกซึ้ง หรือการสอบถามที่เฉพาะเจาะจงมาก ๆ และเป็นเฉพาะกลุ่ม ซึ่งต้องใช้หน่วยความจำจำนวนมากหรือการเชื่อมต่อกับระบบภายนอกจำนวนมาก
  • การปรับแต่งส่วนบุคคลอย่างลึกซึ้งและหน่วยความจำระยะยาว: เครื่องมือแชทส่วนใหญ่ขาดหน่วยความจำระยะยาวที่แข็งแกร่ง ซึ่งหมายความว่าพวกเขาไม่ "รู้จัก" ผู้ใช้จริง ๆ ในระยะเวลานาน การปรับแต่งส่วนบุคคลที่มีประสิทธิภาพมากขึ้นโดยอิงจากประวัติการโต้ตอบระยะยาวเป็นคุณสมบัติที่เป็นที่ต้องการ
  • การรองรับหลายรูปแบบและการโต้ตอบที่ไม่ใช่ข้อความ: เครื่องมือส่วนใหญ่เป็นแบบข้อความ มีความต้องการเพิ่มขึ้นสำหรับ AI การสนทนาที่ใช้เสียงที่ซับซ้อนและการรวมความเข้าใจด้านภาพที่ดีขึ้น (เช่น การสนทนาเกี่ยวกับรูปภาพที่อัปโหลด)
  • การรองรับภาษาท้องถิ่นและภาษาที่หลากหลาย: เครื่องมือ LLM คุณภาพสูงส่วนใหญ่เน้นภาษาอังกฤษเป็นหลัก ทำให้ประชากรทั่วโลกจำนวนมากไม่ได้รับการบริการที่ดีพอจาก AI ที่ขาดความคล่องแคล่วหรือบริบททางวัฒนธรรมในภาษาแม่ของพวกเขา
  • อุปสรรคด้านต้นทุนและการเข้าถึง: LLM ที่ทรงพลังที่สุดมักจะอยู่หลังกำแพงการชำระเงิน ซึ่งอาจทำให้ช่องว่างทางดิจิทัลกว้างขึ้น จำเป็นต้องมีโซลูชันที่เข้าถึงได้ง่ายหรือเปิดให้ใช้งานสำหรับประชากรในวงกว้าง
  • โดเมนเฉพาะที่ขาดโซลูชันที่ปรับแต่ง: สาขาเฉพาะกลุ่มแต่สำคัญ เช่น การวิจัยทางกฎหมายเฉพาะทาง การค้นพบทางวิทยาศาสตร์ หรือการฝึกสอนศิลปะสร้างสรรค์ระดับผู้เชี่ยวชาญ ยังคงขาดแอปพลิเคชัน LLM ที่ปรับแต่งอย่างลึกซึ้งและเชื่อถือได้สูง

คว้าโอกาส: โอกาส "ที่ทำได้ง่าย" ที่มีศักยภาพสูง

ด้วยความสามารถของ LLM ในปัจจุบัน แอปพลิเคชันที่ค่อนข้างเรียบง่ายแต่มีผลกระทบสูงหลายรายการสามารถดึงดูดฐานผู้ใช้จำนวนมากได้:

  1. เครื่องมือสรุปวิดีโอ/YouTube: เครื่องมือที่ช่วยสรุปเนื้อหาได้อย่างกระชับ หรือตอบคำถามเกี่ยวกับเนื้อหาวิดีโอโดยใช้สคริปต์ จะมีคุณค่าอย่างยิ่งสำหรับทั้งนักเรียนและมืออาชีพ
  2. เครื่องมือปรับปรุงเรซูเม่และจดหมายสมัครงาน: ผู้ช่วย AI ที่ช่วยผู้หางานร่าง ปรับแต่ง และเพิ่มประสิทธิภาพเรซูเม่และจดหมายสมัครงานสำหรับตำแหน่งงานที่เฉพาะเจาะจง
  3. เครื่องมือสรุปอีเมลส่วนตัวและร่างข้อความตอบกลับ: เครื่องมือขนาดเล็ก (อาจเป็นส่วนขยายของเบราว์เซอร์) เพื่อสรุปชุดอีเมลยาว ๆ และร่างข้อความตอบกลับสำหรับบุคคลทั่วไปที่ไม่ได้ใช้ชุดโปรแกรมองค์กรขนาดใหญ่
  4. บอทถาม-ตอบเพื่อการเรียนรู้ส่วนบุคคล: แอปที่ช่วยให้นักเรียนสามารถอัปโหลดข้อความใด ๆ (บทเรียนในตำราเรียน, บันทึกย่อ) และสามารถ "สนทนา" กับมันได้—ถามคำถาม รับคำอธิบาย หรือถูกทดสอบความรู้จากเนื้อหานั้น
  5. เครื่องมือปรับปรุงเนื้อหาด้วย AI สำหรับครีเอเตอร์: ผู้ช่วยสำหรับบล็อกเกอร์, ยูทูบเบอร์ และผู้จัดการโซเชียลมีเดีย เพื่อนำเนื้อหาแบบยาวมาปรับใช้ในรูปแบบต่าง ๆ (โพสต์โซเชียล, สรุป, โครงร่าง) หรือปรับปรุงให้ดีขึ้น

แนวคิดเหล่านี้ใช้ประโยชน์จากจุดแข็งหลักของ LLM—การสรุป, การสร้าง, การถาม-ตอบ—และแก้ไขปัญหาที่พบบ่อย ทำให้พร้อมสำหรับการพัฒนา

สร้างอนาคต: ด้วยการใช้ประโยชน์จาก LLM API ที่เข้าถึงได้

ส่วนที่น่าตื่นเต้นสำหรับนักพัฒนาที่ต้องการสร้างสรรค์คือ ความฉลาดหลักของ AI สามารถเข้าถึงได้ผ่าน API จากผู้เล่นรายใหญ่ เช่น OpenAI (ChatGPT/GPT-4), Anthropic (Claude) และ Google (PaLM/Gemini) ซึ่งหมายความว่าคุณไม่จำเป็นต้องฝึกโมเดลขนาดใหญ่ตั้งแต่เริ่มต้น

  • API ของ OpenAI มีการใช้งานอย่างแพร่หลาย เป็นที่รู้จักในด้านคุณภาพและความเป็นมิตรกับนักพัฒนา เหมาะสำหรับการใช้งานที่หลากหลาย
  • Claude ของ Anthropic มีหน้าต่างบริบท (context window) ที่ใหญ่มาก ยอดเยี่ยมสำหรับการประมวลผลเอกสารขนาดยาวในครั้งเดียว และถูกสร้างขึ้นโดยเน้นความปลอดภัยเป็นสำคัญ
  • Gemini ของ Google มีความสามารถด้านภาษาที่หลากหลายและแข็งแกร่ง และผสานรวมเข้ากับระบบนิเวศของ Google ได้อย่างแน่นแฟ้น โดย Gemini สัญญาว่าจะนำเสนอคุณสมบัติ multimodal ขั้นสูงและหน้าต่างบริบทที่ใหญ่เป็นพิเศษ
  • โมเดลโอเพนซอร์ส (เช่น Llama 3) และเฟรมเวิร์กการพัฒนา (เช่น LangChain หรือ LlamaIndex) ช่วยลดอุปสรรคในการเริ่มต้นได้อีก ให้ประโยชน์ด้านการประหยัดค่าใช้จ่าย ความเป็นส่วนตัว และเครื่องมือที่ช่วยให้งานง่ายขึ้น เช่น การเชื่อมต่อ LLM กับข้อมูลเฉพาะของคุณ

ด้วยทรัพยากรเหล่านี้ แม้แต่ทีมขนาดเล็กหรือนักพัฒนาแต่ละคนก็สามารถสร้างแอปพลิเคชันที่ซับซ้อนที่ใช้การสนทนาเป็นหลักได้ ซึ่งเป็นสิ่งที่ไม่อาจจินตนาการได้เมื่อไม่กี่ปีที่ผ่านมา กุญแจสำคัญคือแนวคิดที่ดี การออกแบบที่เน้นผู้ใช้เป็นศูนย์กลาง และการประยุกต์ใช้ API อันทรงพลังเหล่านี้อย่างชาญฉลาด

บทสนทนายังคงดำเนินต่อไป

เครื่องมือแชทที่ขับเคลื่อนด้วย LLM เป็นมากกว่าแค่เทรนด์ที่ผ่านมาแล้วผ่านไป; พวกมันแสดงถึงการเปลี่ยนแปลงพื้นฐานในวิธีที่เราโต้ตอบกับเทคโนโลยีและข้อมูล ในขณะที่แอปพลิเคชันปัจจุบันสร้างผลกระทบที่สำคัญอยู่แล้ว ช่องว่างที่ระบุและโอกาส "ที่ง่ายต่อการคว้า" บ่งชี้ว่าคลื่นแห่งนวัตกรรมยังห่างไกลจากการถึงจุดสูงสุด

เมื่อเทคโนโลยี LLM พัฒนาต่อไป—มีความแม่นยำมากขึ้น รับรู้บริบทได้ดีขึ้น ปรับแต่งเฉพาะบุคคลได้ และรองรับหลายรูปแบบ—เราสามารถคาดหวังการระเบิดของผู้ช่วยที่ใช้การแชทซึ่งมีความเชี่ยวชาญและมีผลกระทบมากยิ่งขึ้น อนาคตของการสนทนากำลังถูกเขียนขึ้นในตอนนี้ และเป็นอนาคตที่ AI มีบทบาทที่ช่วยเหลือและรวมเข้ากับชีวิตของเรามากขึ้นเรื่อยๆ

เครื่องมือ AI สร้างภาพ: การเข้าชมสูง, ช่องว่างที่ซ่อนอยู่, และสิ่งที่ผู้ใช้ต้องการจริงๆ

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

ปัญญาประดิษฐ์ได้เปลี่ยนแปลงภูมิทัศน์ของการประมวลผลภาพไปอย่างมาก ตั้งแต่การปรับปรุงภาพอย่างรวดเร็วบนสมาร์ทโฟน ไปจนถึงการวิเคราะห์ที่ซับซ้อนในห้องปฏิบัติการทางการแพทย์ เครื่องมือที่ขับเคลื่อนด้วย AI มีอยู่ทุกหนแห่ง การใช้งานของเครื่องมือเหล่านี้พุ่งสูงขึ้นอย่างรวดเร็ว ตอบสนองผู้ใช้งานจำนวนมาก ตั้งแต่ผู้ใช้งานทั่วไปที่ปรับแต่งรูปภาพ ไปจนถึงมืออาชีพในสาขาเฉพาะทาง แต่ภายใต้การใช้งานที่สูงและความสามารถที่น่าประทับใจ การพิจารณาอย่างใกล้ชิดเผยให้เห็นว่าเครื่องมือยอดนิยมจำนวนมากยังไม่สามารถตอบสนองความคาดหวังของผู้ใช้ได้อย่างเต็มที่ ยังคงมีช่องว่างที่สำคัญและมักสร้างความหงุดหงิด ในด้านคุณสมบัติ การใช้งาน หรือความเหมาะสมกับสิ่งที่ผู้ใช้ต้องการจริง ๆ

AI Image Tools

โพสต์นี้จะเจาะลึกเข้าไปในโลกของการประมวลผลภาพด้วย AI ตรวจสอบเครื่องมือยอดนิยม สิ่งที่ทำให้เครื่องมือเหล่านั้นเป็นที่ต้องการ และที่สำคัญกว่านั้นคือ จุดที่ความต้องการที่ยังไม่ได้รับการตอบสนองและโอกาสต่าง ๆ ตั้งอยู่

ชุดเครื่องมืออเนกประสงค์: ความนิยมและจุดที่น่ากังวล

งานแก้ไขภาพในชีวิตประจำวัน เช่น การลบพื้นหลัง, การปรับภาพเบลอให้คมชัด หรือการเพิ่มความละเอียดของภาพ ได้รับการปฏิวัติด้วย AI เครื่องมือที่ตอบสนองความต้องการเหล่านี้ดึงดูดผู้ใช้งานนับล้าน แต่ข้อเสนอแนะจากผู้ใช้มักชี้ให้เห็นถึงปัญหาที่พบบ่อย

การลบพื้นหลัง: เหนือกว่าแค่การตัดออก

เครื่องมืออย่าง Remove.bg ทำให้การลบพื้นหลังด้วยการคลิกเพียงครั้งเดียวกลายเป็นเรื่องปกติ โดยประมวลผลภาพประมาณ 150 ล้านภาพต่อเดือนสำหรับผู้ใช้งานประจำประมาณ 32 ล้านคน ความเรียบง่ายและความแม่นยำ โดยเฉพาะอย่างยิ่งกับขอบที่ซับซ้อน เช่น เส้นผม เป็นกุญแจสำคัญที่ทำให้ได้รับความนิยม อย่างไรก็ตาม ผู้ใช้ในปัจจุบันคาดหวังมากกว่าแค่การตัดพื้นฐาน ความต้องการคุณสมบัติการแก้ไขแบบครบวงจร, ผลลัพธ์ที่มีความละเอียดสูงโดยไม่มีค่าใช้จ่ายสูง และแม้แต่การลบพื้นหลังวิดีโอ กำลังเพิ่มขึ้น ซึ่งเป็นด้านที่ Remove.bg ยังมีข้อจำกัด

สิ่งนี้ได้ปูทางให้เครื่องมืออย่าง PhotoRoom ซึ่งรวมการลบพื้นหลังเข้ากับคุณสมบัติการแก้ไขภาพผลิตภัณฑ์ (พื้นหลังใหม่, เงา, การลบวัตถุ) การเติบโตที่น่าประทับใจ ด้วยยอดดาวน์โหลดแอปประมาณ 150 ล้านครั้ง และประมวลผลภาพประมาณ 5 พันล้านภาพต่อปี เน้นย้ำถึงความต้องการโซลูชันที่ครอบคลุมมากขึ้น อย่างไรก็ตาม การมุ่งเน้นหลักไปที่ภาพผลิตภัณฑ์อีคอมเมิร์ซหมายความว่าผู้ใช้ที่มีความต้องการสร้างสรรค์ที่ซับซ้อนมากขึ้นอาจพบว่ามีข้อจำกัด โอกาสจึงมีอยู่ชัดเจนสำหรับเครื่องมือที่รวมความสะดวกในการตัดอย่างรวดเร็วของ AI เข้ากับความสามารถในการแก้ไขด้วยตนเองที่ละเอียดขึ้น ทั้งหมดนี้อยู่ในอินเทอร์เฟซเดียว

การเพิ่มสเกลและปรับปรุงภาพ: การแสวงหาคุณภาพและความเร็ว

เครื่องมือเพิ่มสเกลภาพด้วย AI เช่น Let’s Enhance ที่ทำงานบนคลาวด์ (มีการเข้าชมเว็บไซต์ประมาณ 1.4 ล้านครั้งต่อเดือน) และซอฟต์แวร์เดสก์ท็อป Topaz Gigapixel AI ถูกนำมาใช้อย่างแพร่หลายเพื่อคืนชีวิตให้กับภาพถ่ายเก่า หรือปรับปรุงคุณภาพของภาพสำหรับงานพิมพ์และสื่อดิจิทัล ในขณะที่ Let’s Enhance ให้ความสะดวกสบายผ่านเว็บ ผู้ใช้บางครั้งรายงานว่าการประมวลผลภาพขนาดใหญ่ช้า และมีข้อจำกัดเรื่องเครดิตฟรี Topaz Gigapixel AI ได้รับการยกย่องจากช่างภาพมืออาชีพสำหรับการฟื้นฟูรายละเอียด แต่ต้องใช้ฮาร์ดแวร์ที่ทรงพลัง อาจทำงานช้า และราคา (ประมาณ 199 ดอลลาร์ หรือแบบสมัครสมาชิก) เป็นอุปสรรคสำหรับผู้ใช้ทั่วไป

ข้อสังเกตที่พบบ่อยในข้อเสนอแนะจากผู้ใช้คือความต้องการโซลูชันการเพิ่มสเกลที่รวดเร็วและเบาขึ้น ซึ่งไม่ใช้ทรัพยากรเป็นเวลานาน นอกจากนี้ ผู้ใช้ยังมองหาเครื่องมือเพิ่มสเกลที่จัดการเนื้อหาเฉพาะอย่างชาญฉลาด เช่น ใบหน้า, ข้อความ หรือแม้แต่งานศิลปะสไตล์อนิเมะ (ซึ่งเป็นช่องทางที่เครื่องมืออย่าง Waifu2x และ BigJPG ให้บริการ โดยดึงดูดผู้เข้าชมประมาณ 1.5 ล้านครั้งต่อเดือน) สิ่งนี้บ่งชี้ถึงช่องว่างสำหรับเครื่องมือที่อาจสามารถตรวจจับประเภทภาพโดยอัตโนมัติ และใช้โมเดลการปรับปรุงที่ปรับแต่งมาโดยเฉพาะ

การปรับปรุงและแก้ไขภาพด้วย AI: การแสวงหาสมดุลและประสบการณ์ผู้ใช้ที่ดีขึ้น

แอปมือถืออย่าง Remini มีการเติบโตอย่างก้าวกระโดด (ยอดดาวน์โหลดกว่า 120 ล้านครั้งระหว่างปี 2019-2024) ด้วยการปรับปรุง AI แบบ "แตะครั้งเดียว" โดยเฉพาะอย่างยิ่งสำหรับการฟื้นฟูใบหน้าในภาพถ่ายเก่าหรือภาพเบลอ ความสำเร็จของแอปนี้เน้นย้ำถึงความต้องการของสาธารณะสำหรับการฟื้นฟูที่ขับเคลื่อนด้วย AI อย่างไรก็ตาม ผู้ใช้ชี้ให้เห็นถึงข้อจำกัด: Remini เก่งเรื่องใบหน้า แต่บ่อยครั้งละเลยพื้นหลังหรือองค์ประกอบภาพอื่น ๆ การปรับปรุงบางครั้งอาจดูไม่เป็นธรรมชาติ หรือสร้างสิ่งแปลกปลอม โดยเฉพาะอย่างยิ่งกับอินพุตที่มีคุณภาพต่ำมาก สิ่งนี้บ่งชี้ถึงความต้องการเครื่องมือที่สมดุลมากขึ้น ซึ่งสามารถกู้คืนรายละเอียดภาพโดยรวม ไม่ใช่แค่ใบหน้า

โปรแกรมแก้ไขออนไลน์อย่าง Pixlr ซึ่งดึงดูดผู้เข้าชม 14-15 ล้านครั้งต่อเดือนในฐานะทางเลือกฟรีของ Photoshop ได้รวมคุณสมบัติ AI เช่น การลบพื้นหลังอัตโนมัติ อย่างไรก็ตาม การเปลี่ยนแปลงล่าสุด เช่น การกำหนดให้เข้าสู่ระบบหรือสมัครสมาชิกสำหรับฟังก์ชันพื้นฐาน เช่น การบันทึกงาน ได้รับเสียงวิพากษ์วิจารณ์อย่างมากจากผู้ใช้ โดยเฉพาะอย่างยิ่งจากนักการศึกษาที่พึ่งพาการเข้าถึงฟรี สิ่งนี้แสดงให้เห็นว่าแม้แต่เครื่องมือยอดนิยมก็อาจประเมินความเหมาะสมของตลาดผิดพลาดได้ หากประสบการณ์ผู้ใช้หรือกลยุทธ์การสร้างรายได้ขัดแย้งกับความต้องการของผู้ใช้ ซึ่งอาจผลักดันให้ผู้ใช้มองหาทางเลือกอื่น

AI เฉพาะทาง: พลิกโฉมอุตสาหกรรม แต่ยังมีช่องว่างที่ต้องเติมเต็ม

ในโดเมนเฉพาะทาง การประมวลผลภาพด้วย AI กำลังปฏิวัติกระบวนการทำงาน อย่างไรก็ตาม เครื่องมือเฉพาะทางเหล่านี้ก็ยังคงเผชิญกับความท้าทายในด้านประสบการณ์ผู้ใช้และความสมบูรณ์ของฟีเจอร์

AI สำหรับภาพทางการแพทย์: ตัวช่วยที่มีข้อควรระวัง

ในสาขารังสีวิทยา แพลตฟอร์มอย่าง Aidoc ถูกนำไปใช้ในศูนย์การแพทย์กว่า 1,200 แห่ง โดยวิเคราะห์ภาพสแกนผู้ป่วยหลายล้านภาพต่อเดือน เพื่อช่วยระบุสิ่งที่ต้องได้รับการดูแลอย่างเร่งด่วน แม้ว่าสิ่งนี้จะแสดงให้เห็นถึงความเชื่อมั่นที่เพิ่มขึ้นใน AI สำหรับการประเมินเบื้องต้น แต่รังสีแพทย์ก็ยังคงรายงานถึงข้อจำกัด ปัญหาที่พบบ่อยคือ AI ในปัจจุบันมักจะระบุความผิดปกติที่ "น่าสงสัย" โดยไม่ได้ให้ข้อมูลเชิงปริมาณ (เช่น การวัดขนาดของรอยโรค) หรือไม่สามารถรวมเข้ากับระบบการรายงานได้อย่างราบรื่น ผลบวกลวง (False positives) ยังสามารถนำไปสู่ "ความเหนื่อยล้าจากสัญญาณเตือน" หรือความสับสน หากผู้ที่ไม่ใช่ผู้เชี่ยวชาญเห็นจุดที่ AI เน้นย้ำ ซึ่งภายหลังรังสีแพทย์ได้ปัดตกไป ความต้องการคือ AI ที่ช่วยลดภาระงานได้อย่างแท้จริง ให้ข้อมูลที่สามารถวัดปริมาณได้ และรวมเข้ากับระบบได้อย่างราบรื่น แทนที่จะเพิ่มความซับซ้อนใหม่ ๆ

AI สำหรับภาพถ่ายดาวเทียม: ทรงพลังแต่ไม่สามารถเข้าถึงได้เสมอไป

AI กำลังพลิกโฉมการวิเคราะห์ข้อมูลภูมิสารสนเทศ โดยมีบริษัทอย่าง Planet Labs ที่ให้บริการภาพถ่ายทั่วโลกรายวันและการวิเคราะห์ที่ขับเคลื่อนด้วย AI แก่ผู้ใช้งานกว่า 34,000 ราย แม้จะทรงพลังอย่างเหลือเชื่อ แต่ต้นทุนและความซับซ้อนของแพลตฟอร์มเหล่านี้อาจเป็นอุปสรรคสำหรับองค์กรขนาดเล็ก, NGO, หรือนักวิจัยรายบุคคล แพลตฟอร์มฟรีอย่าง Google Earth Engine หรือ USGS EarthExplorer มีข้อมูลให้ใช้ แต่บ่อยครั้งขาดเครื่องมือวิเคราะห์ AI ที่ใช้งานง่าย ซึ่งต้องอาศัยความรู้ด้านการเขียนโค้ดหรือ GIS มีช่องว่างที่ชัดเจนสำหรับ AI ภูมิสารสนเทศที่เข้าถึงได้ง่ายและราคาไม่แพงกว่านี้ ลองจินตนาการถึงเว็บแอปที่ผู้ใช้สามารถเรียกใช้งานการตรวจจับการเปลี่ยนแปลงที่ดิน หรือการวิเคราะห์สุขภาพพืชผลได้อย่างง่ายดาย โดยไม่ต้องมีความรู้ทางเทคนิคเชิงลึก ในทำนองเดียวกัน การเพิ่มความละเอียดภาพถ่ายดาวเทียมด้วย AI (super-resolution) ที่ให้บริการโดย OnGeo นั้นมีประโยชน์ แต่มักจะถูกส่งมอบในรูปแบบรายงานแบบคงที่ แทนที่จะเป็นการปรับปรุงแบบโต้ตอบและเรียลไทม์ภายในซอฟต์แวร์ GIS

แอปพลิเคชันเฉพาะทางอื่น ๆ: รูปแบบที่คล้ายคลึงกันเริ่มปรากฏ

  • AI สำหรับประกันภัย (เช่น Tractable): AI กำลังเร่งกระบวนการเคลมประกันรถยนต์โดยการประเมินความเสียหายของรถจากภาพถ่าย ซึ่งประมวลผลการซ่อมแซมมูลค่าหลายพันล้านดอลลาร์ต่อปี อย่างไรก็ตาม AI ยังคงจำกัดอยู่แค่ความเสียหายที่มองเห็นได้ และยังคงต้องมีการกำกับดูแลจากมนุษย์ ซึ่งบ่งชี้ถึงความต้องการความแม่นยำและความโปร่งใสที่มากขึ้นในการประมาณการของ AI
  • AI สำหรับงานสร้างสรรค์ (เช่น Lensa, FaceApp): แอปที่สร้างอวตาร AI หรือแปลงโฉมใบหน้าได้รับความนิยมอย่างแพร่หลาย (Lensa มียอดดาวน์โหลดประมาณ 5.8 ล้านครั้งในปี 2022) อย่างไรก็ตาม ผู้ใช้ตั้งข้อสังเกตถึงการควบคุมที่จำกัด ผลลัพธ์ที่อาจมีอคติ และข้อกังวลด้านความเป็นส่วนตัว ซึ่งบ่งชี้ถึงความต้องการเครื่องมือสร้างสรรค์ที่ให้ผู้ใช้มีอำนาจควบคุมมากขึ้น และมีการจัดการข้อมูลที่โปร่งใส

โอกาสที่มองเห็น: จุดที่เครื่องมือ AI สร้างภาพสามารถปรับปรุงได้

ในแอปพลิเคชันทั้งทั่วไปและเฉพาะทาง มีหลายประเด็นสำคัญที่ความต้องการของผู้ใช้ยังไม่ได้รับการตอบสนองอย่างสม่ำเสมอ:

  1. เวิร์กโฟลว์แบบบูรณาการ: ผู้ใช้เบื่อหน่ายกับการสลับใช้เครื่องมือเฉพาะทางหลายอย่าง แนวโน้มคือการรวมโซลูชันที่นำเสนอเวิร์กโฟลว์ที่ราบรื่น ลดความยุ่งยากในการส่งออกและนำเข้าระหว่างแอปพลิเคชันต่างๆ ลองนึกถึงเครื่องมือเพิ่มความละเอียดที่สามารถจัดการกับการปรับปรุงใบหน้าและการลบสิ่งแปลกปลอมได้ในคราวเดียว หรือเครื่องมือที่มีระบบนิเวศของปลั๊กอินที่แข็งแกร่ง
  2. คุณภาพ การควบคุม และการปรับแต่งที่ดียิ่งขึ้น: AI แบบ "กล่องดำ" กำลังเสื่อมความนิยม ผู้ใช้ต้องการการควบคุมกระบวนการ AI มากขึ้น เช่น แถบเลื่อนง่ายๆ สำหรับความเข้มของเอฟเฟกต์ ตัวเลือกในการดูตัวอย่างการเปลี่ยนแปลง หรือความสามารถในการชี้นำ AI ความโปร่งใสเกี่ยวกับความมั่นใจของ AI ในผลลัพธ์ก็เป็นสิ่งสำคัญสำหรับการสร้างความไว้วางใจ
  3. ประสิทธิภาพและความสามารถในการปรับขนาดที่ดีขึ้น: ความเร็วและความสามารถในการประมวลผลแบบแบตช์เป็นปัญหาหลัก ไม่ว่าจะเป็นช่างภาพที่ประมวลผลภาพถ่ายทั้งหมด หรือองค์กรที่วิเคราะห์ภาพนับพันภาพต่อวัน การประมวลผลที่มีประสิทธิภาพเป็นสิ่งสำคัญ ซึ่งอาจเกี่ยวข้องกับอัลกอริทึมที่ได้รับการปรับปรุงให้เหมาะสมยิ่งขึ้น การประมวลผลบนคลาวด์ในราคาที่เอื้อมถึง หรือแม้แต่ AI บนอุปกรณ์เพื่อผลลัพธ์ที่เกือบจะทันที
  4. การเข้าถึงและความคุ้มค่าที่ดีขึ้น: อาการเหนื่อยล้าจากการสมัครสมาชิกเป็นเรื่องจริง ค่าธรรมเนียมที่สูงและกำแพงการชำระเงินที่จำกัดอาจทำให้ผู้ใช้งานทั่วไป นักเรียน และผู้ใช้ในตลาดเกิดใหม่รู้สึกแปลกแยก โมเดล Freemium ที่มีระดับฟรีที่มีประโยชน์อย่างแท้จริง ตัวเลือกการซื้อครั้งเดียว และเครื่องมือที่รองรับภาษาท้องถิ่นสำหรับผู้ที่ไม่ใช่เจ้าของภาษาอังกฤษ หรือความต้องการเฉพาะภูมิภาค สามารถเข้าถึงฐานผู้ใช้ที่ถูกมองข้ามในปัจจุบันได้
  5. การปรับแต่งเชิงลึกเฉพาะโดเมน: ในสาขาเฉพาะทาง โมเดล AI ทั่วไปมักจะทำงานได้ไม่ดีพอ ความสามารถสำหรับผู้ใช้ในการปรับแต่ง AI ให้เข้ากับเฉพาะทางของตนเอง ไม่ว่าจะเป็นโรงพยาบาลที่ฝึก AI ด้วยข้อมูลผู้ป่วยในท้องถิ่น หรือนักปฐพีวิทยาที่ปรับแต่งโมเดลสำหรับพืชผลเฉพาะ จะนำไปสู่ความเหมาะสมกับตลาดและความพึงพอใจของผู้ใช้ที่ดีขึ้น

เส้นทางข้างหน้า

เครื่องมือประมวลผลภาพด้วย AI ได้รับการยอมรับอย่างกว้างขวางและพิสูจน์คุณค่าอันมหาศาลของพวกมันอย่างไม่ต้องสงสัย อย่างไรก็ตาม การเดินทางยังอีกยาวไกล ประเด็นที่ "ยังไม่ได้รับการตอบสนอง" ซึ่งถูกเน้นย้ำจากความคิดเห็นของผู้ใช้ – การเรียกร้องคุณสมบัติที่ครอบคลุมมากขึ้น, การใช้งานที่เข้าใจง่าย, ราคาที่เป็นธรรม, และการควบคุมของผู้ใช้ที่มากขึ้น – ไม่ใช่เพียงแค่ข้อร้องเรียน; แต่เป็นสัญญาณที่ชัดเจนสำหรับการสร้างสรรค์นวัตกรรม

ช่องว่างในตลาดปัจจุบันเป็นพื้นที่ที่อุดมสมบูรณ์สำหรับผู้เข้ามาใหม่และสำหรับผู้เล่นเดิมในการพัฒนา เครื่องมือ AI สำหรับภาพรุ่นต่อไปมีแนวโน้มที่จะเป็นเครื่องมือที่ครบวงจรมากขึ้น, โปร่งใส, ปรับแต่งได้, และตอบสนองต่อขั้นตอนการทำงานที่หลากหลายของผู้ใช้ได้อย่างแท้จริง บริษัทที่รับฟังความต้องการที่เปลี่ยนแปลงไปเหล่านี้อย่างใกล้ชิดและสร้างสรรค์นวัตกรรมทั้งในด้านเทคโนโลยีและประสบการณ์ผู้ใช้ จะเป็นผู้ที่พร้อมจะก้าวขึ้นเป็นผู้นำ

OpenAI Codex: การสำรวจการประยุกต์ใช้และการนำไปปรับใช้ในภาคส่วนต่างๆ

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

OpenAI Codex: การสำรวจการประยุกต์ใช้และการนำไปปรับใช้ในภาคส่วนต่างๆ

OpenAI Codex ซึ่งเป็นระบบ AI ที่ออกแบบมาเพื่อแปลภาษาธรรมชาติให้เป็นโค้ดที่สามารถทำงานได้ ได้กลายเป็นที่รู้จักอย่างแพร่หลายในวงการพัฒนาซอฟต์แวร์ มันเป็นรากฐานของเครื่องมือต่างๆ เช่น GitHub Copilot ซึ่งนำเสนอคุณสมบัติอย่างการเติมโค้ดอัตโนมัติและการสร้างโค้ด ในการอัปเดตครั้งสำคัญ ตัวแทน Codex บนคลาวด์ได้ถูกนำมาใช้ใน ChatGPT ในปี 2025 ซึ่งสามารถจัดการงานพัฒนาซอฟต์แวร์ได้หลากหลาย รวมถึงการเขียนฟีเจอร์ การวิเคราะห์โค้ดเบส การแก้ไขข้อผิดพลาด และการเสนอ pull request การวิเคราะห์นี้จะสำรวจว่า Codex ถูกนำไปใช้โดยนักพัฒนาแต่ละคน องค์กร และหน่วยงานการศึกษาอย่างไร โดยเน้นการบูรณาการ รูปแบบการนำไปใช้ และการประยุกต์ใช้จริงที่เฉพาะเจาะจง

OpenAI Codex: การสำรวจการประยุกต์ใช้และการนำไปปรับใช้ในภาคส่วนต่างๆ

นักพัฒนาแต่ละราย: การเสริมสร้างแนวปฏิบัติในการเขียนโค้ด

นักพัฒนาแต่ละรายกำลังใช้เครื่องมือที่ขับเคลื่อนด้วย Codex เพื่อปรับปรุงงานการเขียนโปรแกรมต่างๆ ให้มีประสิทธิภาพ การใช้งานทั่วไปได้แก่ การสร้างโค้ดสำเร็จรูป (boilerplate code), การแปลความคิดเห็นหรือรหัสเทียม (pseudocode) ให้เป็นโค้ดเชิงไวยากรณ์, และการสร้างการทดสอบหน่วย (unit tests) และเอกสารประกอบโดยอัตโนมัติ วัตถุประสงค์คือเพื่อลดภาระงานการเขียนโค้ดประจำวัน ทำให้นักพัฒนาสามารถมุ่งเน้นไปที่การออกแบบที่ซับซ้อนและการแก้ไขปัญหาได้มากขึ้น Codex ยังถูกนำมาใช้ในการดีบัก โดยมีความสามารถในการระบุข้อผิดพลาดที่อาจเกิดขึ้น แนะนำการแก้ไข และอธิบายข้อความแสดงข้อผิดพลาด มีรายงานว่าวิศวกรของ OpenAI ใช้ Codex สำหรับงานต่างๆ เช่น การปรับโครงสร้างโค้ด (refactoring), การเปลี่ยนชื่อตัวแปร, และการเขียนการทดสอบ

GitHub Copilot ซึ่งรวม Codex เข้าไว้ด้วยกัน เป็นเครื่องมือที่โดดเด่นในด้านนี้ โดยให้คำแนะนำโค้ดแบบเรียลไทม์ภายในโปรแกรมแก้ไขยอดนิยม เช่น VS Code, Visual Studio และ Neovim ข้อมูลการใช้งานบ่งชี้ถึงการนำไปใช้ที่รวดเร็ว โดยการศึกษาพบว่านักพัฒนากว่า 81% ติดตั้ง Copilot ในวันที่เปิดตัว และ 67% ใช้งานเกือบทุกวัน ประโยชน์ที่รายงานได้แก่ การทำงานอัตโนมัติของการเขียนโค้ดที่ซ้ำซาก ตัวอย่างเช่น ข้อมูลจากผู้ใช้ Copilot ของ Accenture ระบุว่าความเร็วในการรวมโค้ด (code merge) เพิ่มขึ้น 8.8% และรายงานความมั่นใจในคุณภาพโค้ดที่สูงขึ้นด้วยตนเอง นอกเหนือจาก Copilot แล้ว นักพัฒนายังใช้ประโยชน์จาก Codex API สำหรับเครื่องมือที่กำหนดเอง เช่น แชทบอทสำหรับการเขียนโปรแกรม หรือปลั๊กอินสำหรับสภาพแวดล้อมอย่าง Jupyter notebooks OpenAI Codex CLI ซึ่งเป็นโอเพนซอร์สในปี 2025 นำเสนอผู้ช่วยที่ทำงานบนเทอร์มินัลที่สามารถรันโค้ด แก้ไขไฟล์ และโต้ตอบกับที่เก็บโปรเจกต์ได้ ทำให้นักพัฒนาสามารถป้อนคำสั่งสำหรับงานที่ซับซ้อน เช่น การสร้างแอปพลิเคชัน หรือการอธิบายฐานโค้ด

การนำไปใช้ในองค์กร: การผสานรวม Codex เข้ากับเวิร์กโฟลว์

บริษัทต่าง ๆ กำลังผสานรวม OpenAI Codex เข้ากับการพัฒนาผลิตภัณฑ์และเวิร์กโฟลว์การดำเนินงาน ผู้ทดสอบองค์กรกลุ่มแรก ๆ ซึ่งรวมถึง Cisco, Temporal, Superhuman และ Kodiak Robotics ได้ให้ข้อมูลเชิงลึกเกี่ยวกับการนำไปใช้ในโค้ดเบสจริง

  • Cisco กำลังสำรวจการใช้ Codex เพื่อเร่งการนำฟีเจอร์และโปรเจกต์ใหม่ ๆ ไปใช้ในกลุ่มผลิตภัณฑ์ทั้งหมด โดยมีเป้าหมายเพื่อเพิ่มประสิทธิภาพการวิจัยและพัฒนา
  • Temporal สตาร์ทอัพแพลตฟอร์มการจัดการเวิร์กโฟลว์ ใช้ Codex สำหรับการพัฒนาฟีเจอร์และการดีบัก โดยมอบหมายงานต่าง ๆ เช่น การเขียนทดสอบและการปรับโครงสร้างโค้ด (code refactoring) ให้กับ AI ทำ ทำให้นักพัฒนาสามารถมุ่งเน้นไปที่ตรรกะหลักได้
  • Superhuman สตาร์ทอัพไคลเอนต์อีเมล ใช้ Codex สำหรับงานเขียนโค้ดที่เล็กและทำซ้ำ ๆ เพื่อปรับปรุงความครอบคลุมของการทดสอบ (test coverage) และแก้ไขข้อผิดพลาดในการทดสอบการผสานรวม (integration test failures) โดยอัตโนมัติ พวกเขายังรายงานว่า Codex ช่วยให้ผู้จัดการผลิตภัณฑ์สามารถมีส่วนร่วมในการเปลี่ยนแปลงโค้ดที่ไม่ซับซ้อนได้ ซึ่งจะได้รับการตรวจสอบโดยนักพัฒนาอีกครั้ง
  • Kodiak Robotics บริษัทรถยนต์ไร้คนขับ ใช้ Codex ในการเขียนเครื่องมือดีบัก เพิ่มความครอบคลุมของการทดสอบ และปรับโครงสร้างโค้ดสำหรับซอฟต์แวร์รถยนต์ไร้คนขับของพวกเขา พวกเขายังใช้เป็นเครื่องมืออ้างอิงสำหรับนักพัฒนาเพื่อทำความเข้าใจส่วนต่าง ๆ ของโค้ดเบสขนาดใหญ่ที่ไม่คุ้นเคย

ตัวอย่างเหล่านี้แสดงให้เห็นว่าบริษัทต่าง ๆ ใช้ Codex เพื่อทำให้งานวิศวกรรมซอฟต์แวร์บางส่วนเป็นไปโดยอัตโนมัติ โดยมีเป้าหมายเพื่อปรับปรุงประสิทธิภาพการทำงาน GitHub Copilot for Business ขยายขีดความสามารถเหล่านี้ไปยังทีมองค์กร โครงการนำร่องที่ Accenture ซึ่งเกี่ยวข้องกับ Copilot รายงานว่านักพัฒนามากกว่า 80% สามารถใช้งานเครื่องมือนี้ได้สำเร็จ และ 95% ระบุว่าพวกเขาสนุกกับการเขียนโค้ดมากขึ้นด้วยความช่วยเหลือจาก AI บริษัทเครื่องมือพัฒนาอื่น ๆ เช่น Replit ได้รวมฟีเจอร์ Codex เช่น "Explain Code" ซึ่งให้คำอธิบายโค้ดเป็นภาษาอังกฤษที่เข้าใจง่าย

การประยุกต์ใช้ในการศึกษา: เครื่องมือใหม่สำหรับการเรียนรู้และการสอน

ในด้านการศึกษา, OpenAI Codex กำลังถูกนำมาใช้ในฐานะระบบติวเตอร์อัจฉริยะและผู้ช่วยเขียนโค้ด สามารถสร้างโค้ดจากคำสั่งภาษาธรรมชาติ, อธิบายแนวคิดการเขียนโปรแกรม, และตอบคำถามเกี่ยวกับโค้ดได้ สิ่งนี้ช่วยให้ผู้เรียนสามารถมุ่งเน้นไปที่ความเข้าใจเชิงแนวคิดมากกว่ารายละเอียดทางไวยากรณ์

นักเรียนใช้ Codex ในการสร้างตัวอย่าง, แก้ไขปัญหาข้อผิดพลาด, และทดลองกับโซลูชันการเขียนโค้ดที่แตกต่างกัน ผู้เรียนรู้ด้วยตนเองสามารถใช้ประโยชน์จากมันในฐานะติวเตอร์ตามความต้องการได้ นักการศึกษากำลังใช้ Codex เพื่อสร้างแบบฝึกหัดการเขียนโค้ดที่กำหนดเอง, สร้างตัวอย่างคำตอบ, และสร้างคำอธิบายที่ปรับให้เข้ากับระดับทักษะที่แตกต่างกัน สิ่งนี้สามารถช่วยประหยัดเวลาของอาจารย์เพื่อให้มีปฏิสัมพันธ์กับนักเรียนได้อย่างมุ่งเน้นมากขึ้น

คุณสมบัติ "Explain Code" ของ Replit ซึ่งขับเคลื่อนโดย Codex ช่วยเหลือผู้เริ่มต้นในการทำความเข้าใจโค้ดที่ไม่คุ้นเคย นักการศึกษาบางคนได้นำ Codex มาใช้ในห้องเรียนเพื่อให้นักเรียนมีส่วนร่วมในการเขียนโปรแกรม โดยอนุญาตให้พวกเขาสร้างแอปพลิเคชันง่าย ๆ ผ่านคำสั่ง ตัวอย่างหนึ่งเกี่ยวข้องกับนักเรียนที่สร้างเกม ซึ่งเน้นย้ำถึงทั้งศักยภาพในการสร้างสรรค์และความจำเป็นในการอภิปรายด้านจริยธรรม เนื่องจากนักเรียนบางคนพยายามสั่งให้ AI สร้างเนื้อหาที่ไม่เหมาะสม ซึ่ง AI ก็สร้างขึ้นโดยไม่มีการกรองด้านจริยธรรมที่ชัดเจนในขณะนั้น ผู้เชี่ยวชาญแนะนำว่าหลักสูตรการเขียนโค้ดอาจพัฒนาไปสู่การรวมการฝึกอบรมเกี่ยวกับวิธีการทำงานกับเครื่องมือ AI อย่างมีประสิทธิภาพ รวมถึงวิศวกรรมพร้อมต์ (prompt engineering) และการตรวจสอบโค้ดที่สร้างโดย AI

การผสานรวมกับเครื่องมือและแพลตฟอร์ม

การผสานรวม Codex ที่แพร่หลายเข้ากับเครื่องมือและแพลตฟอร์มการพัฒนาที่มีอยู่ได้ช่วยอำนวยความสะดวกในการนำไปใช้งาน การฝังตัวของ GitHub Copilot ใน IDEs เช่น Visual Studio Code, JetBrains IDEs, Visual Studio 2022 และ Neovim ให้ความช่วยเหลือ AI แบบเรียลไทม์โดยตรงในสภาพแวดล้อมการเขียนโค้ด

OpenAI API ช่วยให้แอปพลิเคชันอื่น ๆ สามารถรวมความสามารถของ Codex เข้าไปได้ OpenAI Codex CLI ช่วยให้นักพัฒนาสามารถโต้ตอบกับ Codex จากบรรทัดคำสั่งสำหรับงานต่าง ๆ เช่น การสร้างโครงสร้างแอปพลิเคชัน หรือการแก้ไขโปรเจกต์ ปลั๊กอินจากบุคคลที่สามได้เกิดขึ้นสำหรับแพลตฟอร์มเช่น Jupyter Notebooks โดยนำเสนอคุณสมบัติเช่น การเติมโค้ดอัตโนมัติและการสร้างสคริปต์จากคำสั่งภาษาธรรมชาติ บริการ Azure OpenAI ของ Microsoft มีโมเดล Codex ซึ่งช่วยให้องค์กรต่าง ๆ สามารถผสานรวมความสามารถของมันเข้ากับซอฟต์แวร์ภายในของตนภายใต้กรอบการปฏิบัติตามข้อกำหนดและความปลอดภัยของ Azure

แนวโน้มการนำไปใช้และการพิจารณาตลาด

การนำผู้ช่วยเขียนโค้ด AI อย่าง Codex มาใช้มีการเติบโตอย่างรวดเร็ว ภายในปี 2023 รายงานระบุว่านักพัฒนามากกว่า 50% ได้เริ่มใช้เครื่องมือพัฒนาที่ใช้ AI ช่วยเหลือ GitHub Copilot มีรายงานว่ามีผู้ใช้มากกว่า 15 ล้านคนภายในต้นปี 2025 การเติบโตนี้ได้กระตุ้นให้เกิดการแข่งขัน โดยมีบริษัทต่างๆ เช่น Amazon (CodeWhisperer) และ Google (Studio Bot) เปิดตัวผู้ช่วยเขียนโค้ด AI ของตนเอง

การศึกษาได้รายงานถึงการเพิ่มขึ้นของประสิทธิภาพการทำงาน; งานวิจัยของ GitHub ร่วมกับนักพัฒนาของ Accenture ชี้ให้เห็นว่าการใช้ Copilot สามารถทำให้นักพัฒนาทำงานบางอย่างได้เร็วขึ้นถึง 55% โดยส่วนใหญ่รายงานว่ามีความพึงพอใจเพิ่มขึ้น อย่างไรก็ตาม ยังคงมีการตรวจสอบอย่างละเอียดเกี่ยวกับผลกระทบของโค้ดที่สร้างโดย AI ต่อคุณภาพและการบำรุงรักษา การวิเคราะห์หนึ่งชี้ให้เห็นว่าแม้เครื่องมือ AI จะสามารถเร่งการเขียนโค้ดได้ แต่ก็อาจนำไปสู่การ "เปลี่ยนแปลงโค้ด" ที่เพิ่มขึ้น (การเขียนใหม่บ่อยครั้ง) และอาจลดการนำโค้ดกลับมาใช้ซ้ำ ความกังวลเกี่ยวกับความปลอดภัยและความถูกต้องของโค้ดที่สร้างโดย AI ยังคงมีอยู่ โดยเน้นย้ำถึงความจำเป็นในการตรวจสอบโดยมนุษย์ OpenAI ระบุว่าได้นำนโยบายมาใช้ใน Codex เพื่อปฏิเสธคำขอเขียนโค้ดที่เป็นอันตราย และเพิ่มคุณสมบัติการตรวจสอบย้อนกลับ เช่น การอ้างอิงการกระทำและผลการทดสอบ

แนวโน้มที่กำลังพัฒนาคือการเปลี่ยนจากการเติมโค้ดแบบง่ายๆ ไปสู่พฤติกรรม AI ที่เป็นอิสระมากขึ้น หรือ "แบบตัวแทน" ความสามารถของเอเจนต์ Codex ในปี 2025 ในการมอบหมายงานแบบอะซิงโครนัสเป็นตัวอย่างที่ดีของเรื่องนี้ โดยที่นักพัฒนาสามารถมอบหมายงานที่ซับซ้อนให้ AI ทำงานได้อย่างอิสระ GitHub ยังได้เปิดตัวคุณสมบัติการตรวจสอบโค้ดด้วย AI ใน Copilot ซึ่งมีรายงานว่าได้ตรวจสอบ pull requests หลายล้านรายการด้วยตนเองภายในไม่กี่สัปดาห์หลังจากการเปิดตัว สิ่งนี้ชี้ให้เห็นถึงการเคลื่อนไหวไปสู่การที่ AI จัดการส่วนที่ครอบคลุมมากขึ้นของวงจรการพัฒนาซอฟต์แวร์ โดยวิศวกรที่เป็นมนุษย์อาจเปลี่ยนไปเน้นที่การออกแบบระดับสูง สถาปัตยกรรม และการกำกับดูแล

กรณีศึกษาเชิงอธิบาย

  • Superhuman: สตาร์ทอัพผู้พัฒนาอีเมลไคลเอนต์ได้ผนวก Codex เข้ามาเพื่อเร่งความเร็วในการพัฒนาซอฟต์แวร์ โดยการทำงานอัตโนมัติในส่วนของการเพิ่มความครอบคลุมของการทดสอบ (test coverage) และการแก้ไขข้อผิดพลาดเล็กน้อย ซึ่งมีรายงานว่าสิ่งนี้ช่วยให้ผู้จัดการผลิตภัณฑ์สามารถอธิบายการปรับแต่ง UI เพื่อให้ Codex นำไปใช้งานได้ โดยมีการตรวจสอบจากวิศวกร ซึ่งนำไปสู่รอบการทำงานที่รวดเร็วขึ้น
  • Kodiak Robotics: บริษัทพัฒนารถยนต์ไร้คนขับใช้ Codex ในการพัฒนาเครื่องมือดีบักภายใน, การปรับโครงสร้างโค้ด (refactoring) สำหรับระบบ Kodiak Driver ของพวกเขา, และการสร้างกรณีทดสอบ (test cases) นอกจากนี้ยังทำหน้าที่เป็นเครื่องมือความรู้สำหรับวิศวกรใหม่ในการทำความเข้าใจโค้ดเบสที่ซับซ้อน
  • Accenture: การประเมินระดับองค์กรขนาดใหญ่ของ GitHub Copilot (ขับเคลื่อนโดย Codex) ในหมู่นักพัฒนาหลายพันคนรายงานว่า 95% สนุกกับการเขียนโค้ดมากขึ้นด้วยความช่วยเหลือจาก AI และ 90% รู้สึกพึงพอใจกับงานของตนเองมากขึ้น การศึกษาดังกล่าวยังระบุถึงการลดเวลาในการเขียนโค้ดพื้นฐาน (boilerplate coding) และการเพิ่มขึ้นของงานที่ทำเสร็จ
  • Replit: แพลตฟอร์มการเขียนโค้ดออนไลน์ได้ผนวก Codex เพื่อมอบฟีเจอร์ต่างๆ เช่น "Explain Code" ซึ่งสร้างคำอธิบายโค้ดในภาษาที่เข้าใจง่าย สิ่งนี้มีจุดมุ่งหมายเพื่อลดเวลาที่ผู้เรียนใช้ในการทำความเข้าใจโค้ดที่ซับซ้อน และทำหน้าที่เป็นผู้ช่วยสอนอัตโนมัติ

การนำไปใช้งานเหล่านี้แสดงให้เห็นถึงการประยุกต์ใช้ Codex ที่หลากหลาย ตั้งแต่การทำงานอัตโนมัติในงานวิศวกรรมซอฟต์แวร์และการช่วยถ่ายทอดความรู้ในระบบที่ซับซ้อน ไปจนถึงการวัดประสิทธิภาพการทำงานขององค์กรและการสนับสนุนสภาพแวดล้อมทางการศึกษา หัวข้อร่วมกันคือการใช้ Codex เพื่อเสริมทักษะของมนุษย์ โดย AI จะจัดการงานเขียนโค้ดบางอย่าง ในขณะที่มนุษย์จะทำหน้าที่แนะนำ ตรวจสอบ และมุ่งเน้นไปที่การแก้ปัญหาในวงกว้างมากขึ้น

จุดเจ็บปวดสำหรับผู้จัดการผลิตภัณฑ์ที่ใช้ Bolt.new และ Lovable

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

ผู้จัดการผลิตภัณฑ์ (PMs) ถูกดึงดูดให้ใช้ Bolt.new และ Lovable สำหรับการสร้างต้นแบบแอปอย่างรวดเร็วด้วย AI เครื่องมือเหล่านี้สัญญาว่า “ไอเดียสู่แอปในไม่กี่วินาที” ทำให้ PM สามารถสร้าง UI ที่ใช้งานได้หรือ MVP โดยไม่ต้องมีทีมพัฒนาครบวงจร อย่างไรก็ตาม ข้อเสนอแนะจากผู้ใช้ในโลกแห่งความเป็นจริงเผยให้เห็นจุดเจ็บปวดหลายประการ ความไม่พอใจทั่วไปได้แก่ UX ที่ไม่คล่องตัวทำให้เกิดความไร้ประสิทธิภาพ, ความยากลำบากในการทำงานร่วมกับทีม, การรวมระบบที่จำกัดกับเครื่องมือที่มีอยู่, ขาดการสนับสนุนสำหรับการวางแผนผลิตภัณฑ์ระยะยาว, และฟีเจอร์การวิเคราะห์หรือการติดตามที่ไม่เพียงพอ ด้านล่างนี้เราจะอธิบายปัญหาหลัก (พร้อมคำวิจารณ์จากผู้ใช้โดยตรง) และเปรียบเทียบว่าแต่ละเครื่องมือมีประสิทธิภาพอย่างไร

จุดเจ็บปวดสำหรับผู้จัดการผลิตภัณฑ์ที่ใช้ Bolt.new และ Lovable

ปัญหา UX/UI ที่ขัดขวางประสิทธิภาพ

ทั้ง Bolt.new และ Lovable เป็น เทคโนโลยีล้ำสมัยแต่ไม่สมบูรณ์แบบ และ PMs มักพบปัญหา UX/UI ที่ทำให้เกิดความล่าช้า:

  • พฤติกรรม AI ที่ไม่คาดคิด & ข้อผิดพลาด: ผู้ใช้รายงานว่า AI builders เหล่านี้มักสร้างข้อผิดพลาดหรือการเปลี่ยนแปลงที่ไม่คาดคิด ทำให้ต้องลองผิดลองถูกอย่างน่าเบื่อ ผู้ใช้ที่ไม่ใช่เทคนิคคนหนึ่งอธิบายว่าต้องใช้เวลา “3 ชั่วโมง [กับ] ข้อผิดพลาดซ้ำๆ” เพียงเพื่อเพิ่มปุ่ม ซึ่งใช้โทเค็นทั้งหมดในกระบวนการ ในความเป็นจริง Bolt.new กลายเป็นที่รู้จักในเรื่องการสร้าง “หน้าจอว่างเปล่า, ไฟล์ที่หายไป, และการปรับใช้บางส่วน” เมื่อโครงการเติบโตเกินกว่าต้นแบบพื้นฐาน ความไม่แน่นอนนี้หมายความว่า PMs ต้องคอยดูแลผลลัพธ์ของ AI ผู้วิจารณ์ G2 สังเกตว่า Lovable’s prompts “สามารถเปลี่ยนแปลงได้โดยไม่คาดคิด ซึ่งอาจทำให้สับสน” และหากตรรกะของแอปพันกัน “อาจต้องทำงานมากเพื่อให้กลับมาเป็นเหมือนเดิม” – ในกรณีหนึ่งพวกเขาต้องเริ่มโครงการใหม่ทั้งหมด การรีเซ็ตและการทำงานซ้ำเหล่านี้เป็นเรื่องน่าหงุดหงิดเมื่อ PM กำลังพยายามเคลื่อนไหวอย่างรวดเร็ว

  • ค่าใช้จ่ายในการทำซ้ำสูง (โทเค็น & เวลา): ทั้งสองแพลตฟอร์มใช้โมเดลที่จำกัดการใช้งาน (Bolt.new ผ่านโทเค็น, Lovable ผ่านเครดิตข้อความ) ซึ่งอาจขัดขวางการทดลองอย่างมีประสิทธิภาพ ผู้ใช้หลายคนบ่นว่าระบบโทเค็นของ Bolt ใช้มากเกินไป“คุณต้องการโทเค็นมากกว่าที่คุณคิด” ผู้ใช้คนหนึ่งเขียน “ทันทีที่คุณเชื่อมต่อฐานข้อมูล… คุณจะพบปัญหาที่ [AI] มีปัญหาในการแก้ไขในเพียงหนึ่งหรือสอง prompt” ผลลัพธ์คือวงจรการทำซ้ำของการ prompt และการแก้ไขที่กินค่าใช้จ่าย อีกคนหนึ่งที่รับ Bolt.new อย่างหงุดหงิดกล่าวว่า: “30% ของโทเค็นของคุณถูกใช้เพื่อสร้างแอป อีก 70%… เพื่อหาวิธีแก้ไขข้อผิดพลาดและข้อผิดพลาดที่ Bolt สร้างขึ้น” สิ่งนี้สะท้อนโดยคำตอบ: “จริงมาก! [ฉัน] ต่ออายุ [การสมัครสมาชิก] สามครั้งในเดือนเดียว!” โมเดลการใช้งานของ Lovable ก็ไม่รอดพ้นเช่นกัน – ระดับพื้นฐานของมันอาจไม่เพียงพอสำหรับแอปง่ายๆ (ผู้วิจารณ์คนหนึ่ง “สมัครสมาชิก [ระดับพื้นฐาน] และนั่นไม่ให้ฉันพอที่จะสร้างแอปง่ายๆ” โดยสังเกตว่ามีการกระโดดค่าใช้จ่ายสูงสำหรับระดับถัดไป) สำหรับ PMs หมายถึงการถึงขีดจำกัดหรือเกิดค่าใช้จ่ายเพิ่มเติมเพียงเพื่อทำซ้ำต้นแบบ ซึ่งเป็นตัวทำลายประสิทธิภาพอย่างชัดเจน

  • การปรับแต่ง & การควบคุม UI ที่จำกัด: แม้ว่าเครื่องมือทั้งสองจะสร้าง UI ได้อย่างรวดเร็ว ผู้ใช้พบว่าพวกมัน ขาดความสามารถในการปรับแต่งอย่างละเอียด ผู้ใช้ Lovable คนหนึ่งชื่นชมความเร็วแต่บ่นว่า “ตัวเลือกการปรับแต่ง [มี] ข้อจำกัดบางประการ” แม่แบบที่มีอยู่ดูดี แต่การปรับแต่งพวกมันเกินกว่าการปรับแต่งพื้นฐานอาจเป็นเรื่องยุ่งยาก เช่นเดียวกับที่ AI ของ Lovable บางครั้งเปลี่ยนโค้ดที่ไม่ควร – “มันเปลี่ยนโค้ดที่ไม่ควรเปลี่ยนเมื่อฉันเพิ่มบางอย่างใหม่” ผู้ใช้คนหนึ่งกล่าว – หมายความว่าการเปลี่ยนแปลงเล็กๆ ของ PM อาจทำให้ส่วนอื่นของแอปเสียหายโดยไม่ได้ตั้งใจ Bolt.new ในทางกลับกัน ในตอนแรกให้การแก้ไขภาพน้อยมาก ทุกอย่างทำผ่าน prompt หรือการแก้ไขโค้ดเบื้องหลัง ซึ่งน่ากลัวสำหรับผู้ที่ไม่ใช่นักพัฒนา (Lovable ได้เริ่มแนะนำโหมด “แก้ไขภาพ” สำหรับการเปลี่ยนแปลงเลย์เอาต์และสไตล์ แต่ยังอยู่ในช่วงเริ่มต้น) การขาดโปรแกรมแก้ไข WYSIWYG ที่แข็งแกร่งหรืออินเทอร์เฟซลากและวาง (ในทั้งสองเครื่องมือ) เป็นจุดเจ็บปวดสำหรับ PMs ที่ไม่ต้องการเจาะลึกเข้าไปในโค้ด แม้แต่เอกสารของ Lovable เองก็ยอมรับช่องว่างนี้ โดยมุ่งหวังที่จะเสนอฟังก์ชันการลากและวางเพิ่มเติมในอนาคตเพื่อทำให้กระบวนการ “เข้าถึงได้มากขึ้นสำหรับผู้ใช้ที่ไม่ใช่เทคนิค” – หมายความว่าปัจจุบัน ความง่ายในการใช้งานยังคงมีพื้นที่ให้ปรับปรุง

  • ข้อบกพร่องในกระบวนการทำงานของ UI: ผู้ใช้ได้ชี้ให้เห็นถึงปัญหา UX เล็กๆ ที่ขัดขวางความราบรื่นในการใช้แพลตฟอร์มเหล่านี้ ใน Bolt.new ตัวอย่างเช่น อินเทอร์เฟซอนุญาตให้ผู้ใช้คลิก “Deploy” โดยไม่ได้กำหนดเป้าหมายการปรับใช้ ทำให้เกิดความสับสน (มัน “ควรแจ้งให้คุณกำหนดค่า Netlify หากคุณพยายามปรับใช้แต่ยังไม่ได้ทำ” ผู้ใช้แนะนำ) Bolt ยังขาดมุมมอง diff หรือประวัติใดๆ ในโปรแกรมแก้ไขของมัน; มัน “อธิบายสิ่งที่กำลังเปลี่ยนแปลง… แต่โค้ดจริงไม่แสดง diff” ต่างจากเครื่องมือ dev แบบดั้งเดิม สิ่งนี้ทำให้ PM เข้าใจได้ยากขึ้นว่า AI เปลี่ยนแปลงอะไรในแต่ละรอบ ขัดขวางการเรียนรู้และความไว้วางใจ นอกจากนี้ ประวัติการแชทของ Bolt ยังสั้นมาก ดังนั้นคุณไม่สามารถเลื่อนกลับไปดูคำแนะนำก่อนหน้าได้ไกล – ปัญหาสำหรับ PM ที่อาจหยุดพักและกลับมาภายหลังต้องการบริบท ข้อบกพร่องของอินเทอร์เฟซเหล่านี้หมายถึงภาระทางจิตใจเพิ่มเติมในการติดตามการเปลี่ยนแปลงและสถานะ

โดยสรุป Bolt.new มักให้ความสำคัญกับพลังดิบมากกว่าความประณีต ซึ่งอาจทำให้ PMs ต้องดิ้นรนกับความหยาบของมัน ในขณะที่ Lovable มี UX ที่เป็นมิตรกว่า แต่ยังคงมีข้อจำกัดในเชิงลึก ดังที่การเปรียบเทียบหนึ่งกล่าวไว้: “Bolt.new เหมาะถ้าคุณต้องการความเร็วและการควบคุมเต็มที่… สร้างแอป full-stack ได้อย่างรวดเร็ว แต่คุณจะต้องทำความสะอาดเพื่อการผลิต Lovable มีโครงสร้างและเป็นมิตรกับการออกแบบมากกว่า… ด้วยโค้ดที่สะอาดกว่าออกจากกล่อง” สำหรับผู้จัดการผลิตภัณฑ์ เวลา “ทำความสะอาด” นั้นเป็นข้อพิจารณาที่สำคัญ – และหลายคนพบว่าสิ่งที่เครื่องมือ AI เหล่านี้ประหยัดในเวลาในการพัฒนาเริ่มต้น พวกเขาก็ให้คืนบางส่วนในเวลาแก้ไขข้อบกพร่องและปรับแต่ง

ความขัดแย้งในการทำงานร่วมกันและกระบวนการทำงานของทีม

ส่วนสำคัญของบทบาทของ PM คือการทำงานร่วมกับทีม – นักออกแบบ, นักพัฒนา, PMs อื่นๆ – แต่ทั้ง Bolt.new และ Lovable มี ข้อจำกัดเมื่อพูดถึงการทำงานร่วมกันหลายคนและการรวมกระบวนการทำงาน

  • ขาดฟีเจอร์การทำงานร่วมกันแบบเนทีฟ: ไม่มีเครื่องมือใดที่สร้างขึ้นมาเพื่อการทำงานร่วมกันหลายผู้ใช้แบบเรียลไทม์ (เช่น Google Docs หรือ Figma) โครงการมักจะผูกติดกับบัญชีเดียวและแก้ไขโดยบุคคลหนึ่งในแต่ละครั้ง สิ่งนี้สามารถสร้างความขัดแย้งในสภาพแวดล้อมทีม ตัวอย่างเช่น หาก PM สร้างต้นแบบใน Bolt.new ไม่มีวิธีง่ายๆ สำหรับนักออกแบบหรือนักวิศวกรในการเข้าสู่ระบบและปรับแต่งโครงการเดียวกันพร้อมกัน การส่งต่อเป็นเรื่องยุ่งยาก: โดยปกติแล้วจะต้องส่งออกหรือดันโค้ดไปยังที่เก็บสำหรับผู้อื่นในการทำงาน (และตามที่กล่าวไว้ด้านล่าง แม้แต่นั่นก็ไม่ง่ายในกรณีของ Bolt) ในทางปฏิบัติ ผู้ใช้บางคนหันไปใช้การสร้างด้วยเครื่องมือเหล่านี้แล้วนำโค้ดไปที่อื่น ผู้เข้าร่วมการสนทนาใน Product Hunt ยอมรับ: หลังจากใช้ Bolt หรือ Lovable เพื่อให้ได้ไอเดีย พวกเขา “ใส่มันใน GitHub ของฉันและจบลงด้วยการใช้ Cursor เพื่อสร้างให้เสร็จ” – โดยพื้นฐานแล้วเปลี่ยนไปใช้เครื่องมืออื่นสำหรับการพัฒนาทีม สิ่งนี้บ่งชี้ว่าสำหรับการทำงานร่วมกันอย่างยั่งยืน ผู้ใช้รู้สึกว่าจำเป็นต้องออกจากสภาพแวดล้อม Bolt/Lovable

  • การควบคุมเวอร์ชันและการแชร์โค้ด: ในช่วงแรก Bolt.new ไม่มีการรวม Git ในตัว ซึ่งนักพัฒนาคนหนึ่งเรียกว่า “บ้า” ที่มองข้าม: “ฉันต้องการให้โค้ดของฉัน… อยู่ใน Git” โดยไม่มีการควบคุมเวอร์ชันเนทีฟ การรวมผลลัพธ์ของ Bolt เข้ากับฐานโค้ดของทีมเป็นเรื่องยุ่งยาก (Bolt ให้ไฟล์ ZIP ของโค้ดที่สามารถดาวน์โหลดได้ และมีส่วนขยายเบราว์เซอร์ของบุคคลที่สามเกิดขึ้นเพื่อดันไปที่ GitHub) นี่เป็นขั้นตอนเพิ่มเติมที่สามารถทำลายการไหลสำหรับ PM ที่พยายามทำงานร่วมกับนักพัฒนา Lovable ในทางตรงกันข้าม โฆษณาฟีเจอร์ “no lock-in, GitHub sync” ช่วยให้ผู้ใช้สามารถเชื่อมต่อ repo และดันอัปเดตโค้ดได้ สิ่งนี้เป็นจุดขายสำหรับทีม – ผู้ใช้คนหนึ่งสังเกตว่าพวกเขา “ใช้… Lovable สำหรับการรวม Git (สภาพแวดล้อมทีมที่ทำงานร่วมกัน)” ในขณะที่ Bolt ถูกใช้เพียงสำหรับการทำงานเดี่ยวอย่างรวดเร็ว ในด้านนี้ Lovable ช่วยให้การส่งต่อทีมง่ายขึ้น: PM สามารถสร้างแอปและมีโค้ดใน GitHub ทันทีให้นักพัฒนาตรวจสอบหรือดำเนินการต่อ Bolt.new ได้พยายามปรับปรุงโดยเพิ่มตัวเชื่อมต่อ GitHub ผ่าน StackBlitz แต่ความคิดเห็นของชุมชนบ่งชี้ว่ายังไม่ราบรื่นนัก แม้จะมี Git โค้ดที่ขับเคลื่อนด้วย AI ก็ยังยากสำหรับทีมในการวิเคราะห์โดยไม่มีเอกสารประกอบ เนื่องจากโค้ดถูกสร้างโดยเครื่องและบางครั้งไม่สามารถอธิบายตัวเองได้

  • การรวมกระบวนการทำงาน (ทีมออกแบบ & ทีมพัฒนา): ผู้จัดการผลิตภัณฑ์มักต้องการมีส่วนร่วมกับนักออกแบบตั้งแต่เนิ่นๆ หรือให้แน่ใจว่าสิ่งที่พวกเขาสร้างสอดคล้องกับสเปคการออกแบบ ทั้งสองเครื่องมือพยายามรวมเข้าด้วยกันที่นี่ (พูดถึงเพิ่มเติมด้านล่าง) แต่ยังคงมีความขัดแย้ง Bolt.new มีข้อได้เปรียบหนึ่งสำหรับนักพัฒนา คืออนุญาตให้ควบคุมเทคโนโลยีสแต็กได้โดยตรง – “มันให้คุณใช้เฟรมเวิร์กใดก็ได้” ตามที่ผู้ก่อตั้ง Lovable สังเกต – ซึ่งอาจทำให้นักพัฒนาทีมพอใจที่ต้องการเลือกเทคโนโลยี อย่างไรก็ตาม ความยืดหยุ่นนั้นหมายความว่า Bolt ใกล้เคียงกับสนามเด็กเล่นของนักพัฒนามากกว่าเครื่องมือ PM ที่มีคำแนะนำ ในทางตรงกันข้าม Lovable มีวิธีการที่มีโครงสร้าง (พร้อมสแต็กที่แนะนำ, แบ็คเอนด์ที่รวมอยู่, ฯลฯ) อาจจำกัดเสรีภาพของนักพัฒนา แต่ให้เส้นทางที่มีคำแนะนำมากขึ้นที่ผู้ที่ไม่ใช่วิศวกรชื่นชม ขึ้นอยู่กับทีม ความแตกต่างนี้อาจเป็นจุดเจ็บปวด: ไม่ว่า Bolt จะรู้สึกว่าไม่มีความเห็นมากเกินไป (PM อาจเลือกการตั้งค่าที่ทีมไม่ชอบโดยบังเอิญ) หรือ Lovable รู้สึกว่าถูกจำกัดเกินไป (ไม่ใช้เฟรมเวิร์กที่ทีมพัฒนาชอบ) ในทั้งสองกรณี การทำให้ต้นแบบสอดคล้องกับมาตรฐานของทีมต้องใช้การประสานงานเพิ่มเติม

  • เครื่องมือการทำงานร่วมกันภายนอก: ทั้ง Bolt.new และ Lovable ไม่ได้รวมเข้ากับชุดการทำงานร่วมกันทั่วไปโดยตรง (ไม่มีการรวม Slack โดยตรงสำหรับการแจ้งเตือน, ไม่มีการรวม Jira สำหรับการติดตามปัญหา ฯลฯ) ซึ่งหมายความว่าการอัปเดตหรือความคืบหน้าใดๆ ในเครื่องมือต้องสื่อสารด้วยตนเองกับทีม ตัวอย่างเช่น หาก PM สร้างต้นแบบและต้องการข้อเสนอแนะ พวกเขาต้องแชร์ลิงก์ไปยังแอปที่ปรับใช้หรือ repo GitHub ผ่านอีเมล/Slack ด้วยตนเอง – แพลตฟอร์มจะไม่แจ้งเตือนทีมหรือเชื่อมโยงกับตั๋วโครงการโดยอัตโนมัติ การขาดการรวมเข้ากับกระบวนการทำงานของทีมนี้อาจนำไปสู่ ช่องว่างในการสื่อสาร PM ไม่สามารถกำหนดงานภายใน Bolt/Lovable หรือแสดงความคิดเห็นให้เพื่อนร่วมทีมในองค์ประกอบ UI เฉพาะได้เหมือนที่พวกเขาทำในเครื่องมือออกแบบเช่น Figma ทุกอย่างต้องทำแบบ ad-hoc นอกเครื่องมือ โดยพื้นฐานแล้ว Bolt.new และ Lovable เป็นสภาพแวดล้อมแบบผู้เล่นเดี่ยวโดยการออกแบบ ซึ่งเป็นความท้าทายเมื่อ PM ต้องการใช้ในบริบทผู้เล่นหลายคน

โดยสรุป Lovable มีข้อได้เปรียบเล็กน้อยสำหรับสถานการณ์ทีม (ขอบคุณการซิงค์ GitHub และวิธีการที่มีโครงสร้างที่ผู้ที่ไม่ใช่โค้ดเดอร์พบว่าง่ายต่อการติดตาม) ผู้จัดการผลิตภัณฑ์ที่ทำงานคนเดียวอาจทนต่อการตั้งค่าที่เป็นเอกเทศของ Bolt ได้ แต่หากพวกเขาต้องการมีส่วนร่วมกับผู้อื่น เครื่องมือเหล่านี้อาจกลายเป็นคอขวดเว้นแต่ทีมจะสร้างกระบวนการด้วยตนเองรอบๆ พวกมัน ช่องว่างในการทำงานร่วมกันเป็นเหตุผลสำคัญที่เราเห็นผู้ใช้ส่งออกงานของพวกเขาและดำเนินการต่อที่อื่น – AI สามารถเริ่มโครงการได้ แต่เครื่องมือแบบดั้งเดิมยังคงจำเป็นในการดำเนินการต่อไปอย่างร่วมมือกัน

ความท้าทายในการรวมระบบกับเครื่องมืออื่นๆ

การพัฒนาผลิตภัณฑ์สมัยใหม่เกี่ยวข้องกับชุดเครื่องมือ – แพลตฟอร์มการออกแบบ, ฐานข้อมูล, บริการของบุคคลที่สาม ฯลฯ PMs ให้ความสำคัญกับซอฟต์แวร์ที่ เล่นได้ดีกับเครื่องมือที่มีอยู่ แต่ Bolt.new และ Lovable มี ระบบนิเวศการรวมที่จำกัด มักต้องการวิธีแก้ไข:

  • การรวมเครื่องมือออกแบบ: ผู้จัดการผลิตภัณฑ์มักเริ่มต้นด้วยการออกแบบ mockups หรือ wireframes ทั้ง Bolt และ Lovable ตระหนักถึงสิ่งนี้และแนะนำวิธีการนำเข้าออกแบบ แต่ข้อเสนอแนะจากผู้ใช้เกี่ยวกับฟีเจอร์เหล่านี้มีความหลากหลาย Bolt.new เพิ่มการนำเข้า Figma (สร้างบนปลั๊กอิน Anima) เพื่อสร้างโค้ดจากการออกแบบ แต่ยังไม่เป็นไปตามความคาดหวัง ผู้ทดสอบในช่วงแรกสังเกตว่าวิดีโอโฆษณาแสดงการนำเข้าแบบง่ายๆ ที่ไม่มีข้อบกพร่อง “แต่แล้วส่วนที่ไม่ [ทำงาน] ล่ะ? หากเครื่องมือจะเป็นตัวเปลี่ยนเกม มันควรจัดการกับความซับซ้อน – ไม่ใช่แค่สิ่งที่ง่าย” ในทางปฏิบัติ Bolt มีปัญหากับไฟล์ Figma ที่ไม่เรียบร้อยมาก UX designer ที่ลองใช้การรวม Figma ของ Bolt พบว่ามันไม่น่าประทับใจสำหรับสิ่งใดนอกจากเลย์เอาต์พื้นฐาน บ่งชี้ว่าการรวมนี้สามารถ “สะดุดในงานออกแบบที่ซับซ้อน” Lovable เพิ่งเปิดตัวท่อส่ง Figma-to-code ของตัวเองผ่านการรวม Builder.io สิ่งนี้อาจให้ผลลัพธ์ที่สะอาดกว่า (เนื่องจาก Builder.io ตีความ Figma และส่งต่อให้ Lovable) แต่เนื่องจากเป็นของใหม่ ยังไม่ได้รับการพิสูจน์อย่างกว้างขวาง อย่างน้อยหนึ่งการเปรียบเทียบชื่นชม Lovable สำหรับ “ตัวเลือก UI ที่ดีกว่า (Figma/Builder.io)” และวิธีการที่เป็นมิตรกับการออกแบบมากขึ้น อย่างไรก็ตาม “ช้ากว่าเล็กน้อยในการสร้างอัปเดต” เป็นการแลกเปลี่ยนที่รายงานสำหรับความละเอียดในการออกแบบนั้น สำหรับ PMs ข้อสรุปคือ การนำเข้าออกแบบไม่ใช่เรื่องง่ายเพียงคลิกปุ่มเสมอไป – พวกเขาอาจใช้เวลาในการปรับไฟล์ Figma ให้เหมาะกับความสามารถของ AI หรือทำความสะอาด UI ที่สร้างขึ้นหลังการนำเข้า สิ่งนี้เพิ่มความขัดแย้งในกระบวนการทำงานระหว่างนักออกแบบและเครื่องมือ AI

  • การรวมแบ็คเอนด์และฐานข้อมูล: ทั้งสองเครื่องมือมุ่งเน้นไปที่การสร้าง front-end แต่แอปจริงต้องการข้อมูลและการรับรองความถูกต้อง โซลูชันที่เลือกสำหรับทั้ง Bolt.new และ Lovable คือการรวมกับ Supabase (ฐานข้อมูล PostgreSQL ที่โฮสต์ + บริการรับรองความถูกต้อง) ผู้ใช้ชื่นชมว่าการรวมเหล่านี้มีอยู่ แต่มีความละเอียดในทางปฏิบัติ ในช่วงแรก การรวม Supabase ของ Bolt.new เป็นพื้นฐาน; ของ Lovable ถือว่า “แน่นกว่า [และ] ตรงไปตรงมากว่า” ในการเปรียบเทียบ ผู้ก่อตั้ง Lovable เน้นว่า Lovable’s system ถูกปรับแต่งให้จัดการกับการ “ติดขัด” น้อยลง รวมถึงเมื่อรวมฐานข้อมูล อย่างไรก็ตาม การใช้ Supabase ยังคงต้องการให้ PM มีความเข้าใจเกี่ยวกับ schema ของฐานข้อมูล ในการรีวิว Medium ของ Lovable ผู้เขียนต้องสร้างตารางใน Supabase ด้วยตนเองและอัปโหลดข้อมูล จากนั้นเชื่อมต่อผ่านคีย์ API เพื่อให้แอปทำงานได้เต็มที่ (เช่น สำหรับแอปจำหน่ายตั๋วที่มีเหตุการณ์และสถานที่) กระบวนการนี้สามารถทำได้ แต่ไม่ง่าย – ไม่มีการตรวจจับอัตโนมัติของโมเดลข้อมูลของคุณ PM ต้องกำหนดมัน หากมีอะไรผิดพลาดในการเชื่อมต่อ การแก้ไขข้อผิดพลาดจะตกอยู่กับผู้ใช้ Lovable พยายามช่วย (AI assistant ให้คำแนะนำเมื่อเกิดข้อผิดพลาดระหว่างการเชื่อมต่อ Supabase) แต่ไม่สมบูรณ์แบบ Bolt.new เพิ่ง “ส่งการปรับปรุงมากมายให้กับการรวม Supabase ของพวกเขา” หลังจากที่ผู้ใช้บ่น ก่อนหน้านั้นตามที่ผู้ใช้คนหนึ่งกล่าวว่า “Bolt…จัดการงาน front-end แต่ไม่ให้ความช่วยเหลือด้านแบ็คเอนด์มากนัก” – นอกเหนือจากการตั้งค่าพื้นฐาน คุณต้องทำเองสำหรับตรรกะเซิร์ฟเวอร์ โดยสรุป แม้ว่า ทั้งสองเครื่องมือจะทำให้การรวมแบ็คเอนด์เป็นไปได้ แต่เป็นการรวมที่ตื้น PMs สามารถพบว่าตัวเองถูกจำกัดอยู่ที่สิ่งที่ Supabase เสนอ; อะไรที่มากกว่านั้น (เช่นฐานข้อมูลอื่นหรือตรรกะเซิร์ฟเวอร์ที่ซับซ้อน) ไม่ได้รับการสนับสนุน (Bolt และ Lovable ไม่ *สร้างโค้ดแบ็คเอนด์ที่เป็นไปตามอำเภอใจในภาษาต่างๆ เช่น Python/Java ตัวอย่างเช่น) สิ่งนี้อาจน่าหงุดหงิดเมื่อข้อกำหนดของผลิตภัณฑ์เกินกว่าการดำเนินการ CRUD พื้นฐาน

  • บริการของบุคคลที่สาม & APIs: ส่วนสำคัญของผลิตภัณฑ์สมัยใหม่คือการเชื่อมต่อกับบริการ (เกตเวย์การชำระเงิน, แผนที่, การวิเคราะห์ ฯลฯ) Lovable และ Bolt สามารถรวม APIs ได้ แต่ผ่านอินเทอร์เฟซ prompt แทนที่จะเป็นปลั๊กอินที่สร้างไว้ล่วงหน้า ตัวอย่างเช่น ผู้ใช้ใน Reddit อธิบายว่าคุณสามารถบอก AI ได้ว่า “ฉันต้องการ API สภาพอากาศ” และเครื่องมือจะเลือก API ฟรียอดนิยมและขอคีย์ API สิ่งนี้น่าประทับใจ แต่ก็ ทึบแสง – PM ต้องเชื่อมั่นว่า AI เลือก API ที่เหมาะสมและดำเนินการเรียกอย่างถูกต้อง ไม่มีร้านค้าแอปของการรวมเข้าด้วยกันหรือการกำหนดค่ากราฟิก; ทั้งหมดอยู่ในวิธีที่คุณ prompt สำหรับ บริการทั่วไปเช่นการชำระเงินหรืออีเมล Lovable ดูเหมือนจะมีข้อได้เปรียบโดยการสร้างพวกมันใน: ตามที่ผู้ก่อตั้งของมัน Lovable มี “การรวมสำหรับการชำระเงิน + อีเมล” ในฟีเจอร์ของมัน หากเป็นจริง หมายความว่า PM สามารถขอให้ Lovable เพิ่มฟอร์มการชำระเงิน Stripe หรือส่งอีเมลผ่านบริการที่รวมอยู่ได้ง่ายขึ้น ในขณะที่กับ Bolt คุณอาจต้องตั้งค่าเองผ่านการเรียก API อย่างไรก็ตาม เอกสารเกี่ยวกับสิ่งเหล่านี้มีน้อย – อาจยังคงจัดการผ่านตัวแทน AI มากกว่าการตั้งค่า point-and-click การขาดโมดูลการรวมที่ชัดเจนและเป็นมิตรกับผู้ใช้สามารถมองว่าเป็นจุดเจ็บปวด: มันต้องการการลองผิดลองถูกในการรวมสิ่งใหม่ และหาก AI ไม่รู้จักบริการเฉพาะ PM อาจเจอทางตัน โดยพื้นฐานแล้ว การรวมเป็นไปได้แต่ไม่ “plug-and-play”

  • การรวมเครื่องมือขององค์กร: เมื่อพูดถึงการรวมเข้ากับ เครื่องมือจัดการผลิตภัณฑ์ เอง (Jira สำหรับตั๋ว, Slack สำหรับการแจ้งเตือน ฯลฯ) Bolt.new และ Lovable ปัจจุบันไม่มีอะไรออกจากกล่อง แพลตฟอร์มเหล่านี้ทำงานแยกกัน ดังนั้น PM ที่ใช้พวกมันต้องอัปเดตระบบอื่นด้วยตนเอง ตัวอย่างเช่น หาก PM มีเรื่องราวของผู้ใช้ใน Jira (“ในฐานะผู้ใช้ฉันต้องการฟีเจอร์ X”) และพวกเขาสร้างต้นแบบฟีเจอร์นั้นใน Lovable ไม่มีวิธีที่จะทำเครื่องหมายเรื่องราวนั้นว่าเสร็จสิ้นจากภายใน Lovable – PM ต้องเข้าไปใน Jira และทำมัน เช่นเดียวกัน ไม่มีบอท Slack ที่จะประกาศว่า “ต้นแบบพร้อมแล้ว” เมื่อ Bolt สร้างเสร็จ; PM ต้องคว้าลิงก์พรีวิวและแชร์มัน ช่องว่างนี้ไม่น่าแปลกใจเนื่องจากการมุ่งเน้นในช่วงแรกของเครื่องมือเหล่านี้ แต่ก็ขัดขวาง ประสิทธิภาพของกระบวนการทำงาน ในสภาพแวดล้อมทีม โดยพื้นฐานแล้วคือการสลับบริบท: คุณทำงานใน Bolt/Lovable เพื่อสร้าง จากนั้นสลับไปยังเครื่องมือ PM ของคุณเพื่อบันทึกความคืบหน้า จากนั้นอาจไปยังเครื่องมือสื่อสารของคุณเพื่อแสดงให้ทีมเห็น ซอฟต์แวร์ที่รวมกันสามารถทำให้สิ่งนี้ง่ายขึ้น แต่ปัจจุบันภาระนั้นตกอยู่กับ PM

โดยสรุป Bolt.new และ Lovable รวมกันได้ดีในบางพื้นที่ทางเทคนิค (โดยเฉพาะกับ Supabase สำหรับข้อมูล) แต่ไม่สามารถรวมเข้ากับระบบนิเวศของเครื่องมือที่ผู้จัดการผลิตภัณฑ์ใช้ทุกวันได้ Lovable ได้ทำก้าวเล็กน้อยในการเสนอเส้นทางที่สร้างขึ้นในตัว (เช่นการปรับใช้คลิกเดียว, การซิงค์ GitHub โดยตรง, บริการบางอย่างที่สร้างขึ้น) ในขณะที่ Bolt มักต้องการบริการภายนอก (Netlify, การตั้งค่า API ด้วยตนเอง) การรีวิว NoCode MBA เปรียบเทียบสิ่งนี้อย่างชัดเจน: “Lovable มีการเผยแพร่ในตัว ในขณะที่ Bolt พึ่งพาบริการภายนอกเช่น Netlify” ความพยายามในการเชื่อมช่องว่างเหล่านี้ – ไม่ว่าจะโดยการคัดลอกโค้ดด้วยตนเอง, การปรับแต่งปลั๊กอินของบุคคลที่สาม, หรือการป้อนอัปเดตลงในระบบอื่น – เป็นความรำคาญจริงสำหรับ PMs ที่ต้องการประสบการณ์ที่ราบรื่น

ข้อจำกัดในการวางแผนผลิตภัณฑ์และการจัดการแผนที่ถนน

นอกเหนือจากการสร้างต้นแบบอย่างรวดเร็ว ผู้จัดการผลิตภัณฑ์มีหน้าที่รับผิดชอบในการ วางแผนฟีเจอร์, การจัดการแผนที่ถนน, และการทำให้ผลิตภัณฑ์สามารถพัฒนาได้ ที่นี่ Bolt.new และ Lovable มีขอบเขตที่แคบมาก – พวกเขาช่วยสร้างแอป แต่ไม่มีเครื่องมือสำหรับการวางแผนผลิตภัณฑ์ในวงกว้างหรือการจัดการโครงการอย่างต่อเนื่อง

  • ไม่มีการจัดการ backlog หรือข้อกำหนด: AI app builders เหล่านี้ไม่มีแนวคิดเกี่ยวกับ backlog, เรื่องราวของผู้ใช้, หรืองาน PM ไม่สามารถใช้ Bolt.new หรือ Lovable เพื่อแสดงรายการฟีเจอร์และจากนั้นจัดการพวกมันทีละรายการในวิธีที่มีโครงสร้างได้ การพัฒนาแทนที่จะขับเคลื่อนด้วย prompt (“สร้าง X”, “ตอนนี้เพิ่ม Y”) และเครื่องมือจะสร้างหรือแก้ไขแอปตามนั้น สิ่งนี้ทำงานได้สำหรับการสร้างต้นแบบ ad-hoc แต่ ไม่แปลเป็นแผนที่ถนนที่จัดการได้ หาก PM ต้องการจัดลำดับความสำคัญของฟีเจอร์บางอย่างหรือวางแผนการปล่อย พวกเขายังคงต้องใช้เครื่องมือภายนอก (เช่น Jira, Trello, หรือสเปรดชีตง่ายๆ) เพื่อทำเช่นนั้น AI จะไม่เตือนคุณว่าอะไรที่ยังค้างอยู่หรือฟีเจอร์เกี่ยวข้องกันอย่างไร – มันไม่มีแนวคิดเกี่ยวกับไทม์ไลน์ของโครงการหรือการพึ่งพา มีเพียงคำแนะนำที่คุณให้ในขณะนั้น

  • ความยากลำบากในการจัดการโครงการขนาดใหญ่: เมื่อโครงการเติบโตในความซับซ้อน ผู้ใช้พบว่าแพลตฟอร์มเหล่านี้ถึงขีดจำกัด ผู้วิจารณ์ G2 คนหนึ่งสังเกตว่า “เมื่อฉันเริ่มเติบโตพอร์ตโฟลิโอของฉัน ฉันตระหนักว่าไม่มีเครื่องมือมากมายสำหรับการจัดการโครงการที่ซับซ้อนหรือใหญ่ขึ้น” ใน Lovable ความรู้สึกนี้ใช้กับ Bolt.new เช่นกัน พวกเขาได้รับการปรับให้เหมาะสมสำหรับแอปขนาดเล็กที่เริ่มต้นใหม่; หากคุณพยายามสร้างผลิตภัณฑ์ที่มีหลายโมดูล, บทบาทผู้ใช้, ตรรกะที่ซับซ้อน ฯลฯ กระบวนการจะกลายเป็นเรื่องยุ่งยาก ไม่มีการสนับสนุนสำหรับโมดูลหรือแพ็คเกจเกินกว่าสิ่งที่เฟรมเวิร์คโค้ดพื้นฐานให้ และเนื่องจากไม่มีเครื่องมือใดที่อนุญาตให้เชื่อมต่อกับฐานโค้ดที่มีอยู่ คุณไม่สามารถรวมการปรับปรุงที่สร้างโดย AI เข้ากับโครงการที่มีอายุยาวนานได้อย่างค่อยเป็นค่อยไป ซึ่งหมายความว่าพวกเขาไม่เหมาะสมสำหรับการพัฒนาที่เป็นไปตามลำดับในผลิตภัณฑ์ที่เติบโต ในทางปฏิบัติ หากต้นแบบที่สร้างด้วย Lovable ต้องกลายเป็นผลิตภัณฑ์จริง ทีมมักจะ เขียนใหม่หรือปรับปรุงมันนอกเครื่องมือ เมื่อถึงขนาดหนึ่ง จากมุมมองของ PM ข้อจำกัดนี้หมายความว่าคุณปฏิบัติต่อผลลัพธ์ของ Bolt/Lovable เป็นต้นแบบที่ใช้แล้วทิ้งหรือจุดเริ่มต้น ไม่ใช่ผลิตภัณฑ์จริงที่จะขยาย – เครื่องมือเองไม่สนับสนุนการเดินทางนั้น

  • ลักษณะการสร้าง AI แบบครั้งเดียว: Bolt.new และ Lovable ทำงานเหมือน พ่อมด มากกว่าสภาพแวดล้อมการพัฒนาอย่างต่อเนื่อง พวกเขาโดดเด่นใน ระยะการคิดค้น (คุณมีไอเดีย คุณ prompt มัน คุณได้แอปพื้นฐาน) แต่พวกเขาขาดฟีเจอร์สำหรับ การวางแผนและการตรวจสอบผลิตภัณฑ์อย่างต่อเนื่อง ตัวอย่างเช่น ไม่มีแนวคิดเกี่ยวกับไทม์ไลน์แผนที่ถนนที่คุณสามารถใส่ “Sprint 1: ดำเนินการเข้าสู่ระบบ (ทำโดย AI), Sprint 2: ดำเนินการจัดการโปรไฟล์ (ต้องทำ)” ฯลฯ คุณยังไม่สามารถย้อนกลับไปยังเวอร์ชันก่อนหน้าหรือแยกฟีเจอร์ใหม่ได้ง่ายๆ – การปฏิบัติมาตรฐานในการพัฒนาผลิตภัณฑ์ สิ่งนี้มักบังคับให้ PMs มีแนวคิดที่ต้องทิ้ง: ใช้ AI เพื่อยืนยันไอเดียอย่างรวดเร็ว แต่จากนั้นเริ่มต้นการพัฒนา “ที่ถูกต้อง” ในสภาพแวดล้อมแบบดั้งเดิมสำหรับสิ่งใดที่เกินกว่าต้นแบบ การส่งต่อดังกล่าวอาจเป็นจุดเจ็บปวดเพราะมันทำให้ความพยายามซ้ำซ้อนหรือจำเป็นต้องแปลต้นแบบเป็นรูปแบบที่บำรุงรักษาได้มากขึ้น

  • ไม่มีฟีเจอร์การมีส่วนร่วมของผู้มีส่วนได้เสีย: ในการวางแผนผลิตภัณฑ์ PMs มักรวบรวมข้อเสนอแนะและปรับแผนที่ถนน เครื่องมือ AI เหล่านี้ไม่ช่วยในเรื่องนั้นเช่นกัน ตัวอย่างเช่น คุณไม่สามารถสร้างสถานการณ์ต่างๆ หรือทางเลือกแผนที่ถนนผลิตภัณฑ์ใน Bolt/Lovable เพื่อพูดคุยกับผู้มีส่วนได้เสีย – ไม่มีมุมมองไทม์ไลน์ ไม่มีการโหวตฟีเจอร์ ไม่มีอะไรในลักษณะนั้น การอภิปรายหรือการตัดสินใจเกี่ยวกับ สิ่งที่จะสร้างต่อไป ต้องเกิดขึ้นนอกแพลตฟอร์ม PM อาจหวังว่าเมื่อ AI สร้างแอป มันอาจให้รายการฟีเจอร์หรือสเปคที่ถูกนำไปใช้ ซึ่งจากนั้นอาจทำหน้าที่เป็นเอกสารที่มีชีวิตสำหรับทีม แต่แทนที่จะเป็นเช่นนั้น เอกสารมีจำกัด (ประวัติการแชทหรือความคิดเห็นในโค้ดทำหน้าที่เป็นบันทึกเดียว และตามที่กล่าวไว้ ประวัติการแชทของ Bolt มีความยาวจำกัด) การขาดเอกสารหรือการสนับสนุนการวางแผนในตัวหมายความว่า PM ต้องบันทึกด้วยตนเองว่า AI ทำอะไรและอะไรที่ยังค้างอยู่ สำหรับแผนที่ถนนใดๆ ซึ่งเป็นงานเพิ่มเติม

โดยสรุป Bolt.new และ Lovable เป็น ไม่ใช่ตัวแทนสำหรับเครื่องมือจัดการผลิตภัณฑ์ – พวกเขาเป็นเครื่องมือพัฒนาที่ช่วยเหลือ พวกเขา “สร้างแอปใหม่” จากศูนย์ แต่จะไม่เข้าร่วมกับคุณในการขยายหรือจัดการการพัฒนาผลิตภัณฑ์ ผู้จัดการผลิตภัณฑ์พบว่าเมื่อสร้างต้นแบบครั้งแรกเสร็จ พวกเขาต้องเปลี่ยนไปใช้วงจรการวางแผนและพัฒนาแบบดั้งเดิม เพราะเครื่องมือ AI จะไม่แนะนำกระบวนการนั้น ดังที่บล็อกเกอร์เทคโนโลยีคนหนึ่งสรุปหลังจากการทดสอบ “Lovable ชัดเจนเร่งการสร้างต้นแบบแต่ไม่กำจัดความจำเป็นในการมีส่วนร่วมของมนุษย์… มันไม่ใช่กระสุนวิเศษที่จะกำจัดการมีส่วนร่วมของมนุษย์ทั้งหมดในการพัฒนาผลิตภัณฑ์” ซึ่งเน้นว่าการวางแผน, การจัดลำดับความสำคัญ, และการปรับปรุง – กิจกรรมหลักของ PM – ยังคงพึ่งพามนุษย์และเครื่องมือมาตรฐานของพวกเขา ทิ้งช่องว่างในสิ่งที่แพลตฟอร์ม AI เหล่านี้สามารถสนับสนุนได้

(Lovable.dev vs Bolt.new vs Fine: เปรียบเทียบ AI App Builders และตัวแทนการเขียนโค้ดสำหรับสตาร์ทอัพ) AI app builders ส่วนใหญ่ (เช่น Bolt.new และ Lovable) โดดเด่นในการสร้างต้นแบบ front-end อย่างรวดเร็ว แต่พวกเขาขาดความสามารถในการเขียนโค้ดแบ็คเอนด์ที่ซับซ้อน, การทดสอบอย่างละเอียด, หรือการบำรุงรักษาระยะยาว ผู้จัดการผลิตภัณฑ์พบว่าเครื่องมือเหล่านี้ แม้ว่าจะยอดเยี่ยมสำหรับการพิสูจน์แนวคิด แต่ไม่สามารถจัดการวงจรชีวิตผลิตภัณฑ์ทั้งหมดเกินกว่าการสร้างเริ่มต้นได้

ปัญหากับการวิเคราะห์, ข้อมูลเชิงลึก, และการติดตามความคืบหน้า

เมื่อผลิตภัณฑ์ (หรือแม้แต่ต้นแบบ) ถูกสร้างขึ้น PM ต้องการติดตามว่ามันทำงานอย่างไร – ทั้งในแง่ของความคืบหน้าการพัฒนาและการมีส่วนร่วมของผู้ใช้ ที่นี่ Bolt.new และ Lovable ให้ ไม่มีการวิเคราะห์หรือการติดตามในตัวเลย ซึ่งอาจเป็นจุดเจ็บปวดอย่างมาก

  • ไม่มีการวิเคราะห์ผู้ใช้ในตัว: หาก PM ปรับใช้แอปผ่านแพลตฟอร์มเหล่านี้ ไม่มีแดชบอร์ดเพื่อดูเมตริกการใช้งาน (เช่น จำนวนผู้ใช้, คลิก, การแปลง) การวิเคราะห์ผลิตภัณฑ์ใดๆ ต้องเพิ่มด้วยตนเอง ในแอปที่สร้างขึ้น ตัวอย่างเช่น เพื่อให้ได้ข้อมูลการเข้าชมพื้นฐาน PM จะต้องแทรก Google Analytics หรือสคริปต์ที่คล้ายกันลงในโค้ดของแอป ทรัพยากรช่วยเหลือของ Lovable เองระบุสิ่งนี้อย่างชัดเจน: “หากคุณใช้ Lovable… คุณต้องเพิ่มโค้ดการติดตาม Google Analytics ด้วยตนเอง… ไม่มีการรวมโดยตรง” ซึ่งหมายถึงการตั้งค่าเพิ่มเติมและขั้นตอนทางเทคนิคที่ PM ต้องประสาน (อาจต้องการความช่วยเหลือจากนักพัฒนาหากพวกเขาไม่คุ้นเคยกับการเขียนโค้ด) การขาดการวิเคราะห์ในตัวเป็นเรื่องน่ารำคาญเพราะเหตุผลใหญ่หนึ่งในการสร้างต้นแบบอย่างรวดเร็วคือการรวบรวมข้อเสนอแนะจากผู้ใช้ – แต่เครื่องมือจะไม่รวบรวมให้คุณ หาก PM เปิดตัว MVP ที่สร้างโดย Lovable ให้กับกลุ่มทดสอบ พวกเขาจะต้องติดตั้งมันเองหรือใช้บริการวิเคราะห์ภายนอกเพื่อเรียนรู้เกี่ยวกับพฤติกรรมของผู้ใช้ สิ่งนี้สามารถทำได้ แต่เพิ่มภาระและต้องการความคุ้นเคยกับการแก้ไขโค้ดหรือใช้อินเทอร์เฟซที่จำกัดของแพลตฟอร์มเพื่อแทรกสคริปต์

  • ข้อมูลเชิงลึกที่จำกัดในกระบวนการของ AI: ในด้านการพัฒนา PMs อาจต้องการการวิเคราะห์หรือข้อเสนอแนะเกี่ยวกับ การทำงานของตัวแทน AI – ตัวอย่างเช่น เมตริกเกี่ยวกับจำนวนครั้งที่ต้องใช้เพื่อให้ได้สิ่งที่ถูกต้อง หรือส่วนใดของโค้ดที่เปลี่ยนแปลงบ่อยที่สุด ข้อมูลเชิงลึกดังกล่าวสามารถช่วยให้ PM ระบุพื้นที่เสี่ยงของแอปหรือวัดความมั่นใจในส่วนประกอบที่สร้างโดย AI อย่างไรก็ตาม ไม่มีทั้ง Bolt.new และ Lovable ที่แสดงข้อมูลนี้ Apart from crude measures like tokens used or messages sent, there isn’t a rich log of the AI’s decision-making. In fact, as mentioned, Bolt.new didn’t even show diffs of code changes. This lack of transparency was frustrating enough that some users accused Bolt’s AI of churning through tokens just to appear busy: “optimized for appearance of activity rather than genuine problem-solving,” as one reviewer observed of the token consumption pattern. That suggests PMs get very little insight into whether the AI’s “work” is effective or wasteful, beyond watching the outcome. It’s essentially a black box. When things go wrong, the PM has to blindly trust the AI’s explanation or dive into the raw code – there’s no analytics to pinpoint, say, “20% of generation attempts failed due to X.”

  • การติดตามความคืบหน้าและประวัติรุ่น: จากมุมมองการจัดการโครงการ ไม่มีเครื่องมือใดที่มีฟีเจอร์ในการติดตามความคืบหน้าเมื่อเวลาผ่านไป ไม่มีแผนภูมิ burn-down, ไม่มีเปอร์เซ็นต์ความคืบหน้า, แม้แต่รายการตรวจสอบฟีเจอร์ที่เสร็จสิ้นก็ไม่มี ไทม์ไลน์เดียวคือประวัติการสนทนา (สำหรับอินเทอร์เฟซที่ใช้การแชทของ Lovable) หรือลำดับของ prompt และตามที่กล่าวไว้ก่อนหน้านี้ หน้าต่างประวัติของ Bolt.new มีจำกัด หมายความว่าคุณไม่สามารถเลื่อนกลับไปยังจุดเริ่มต้นของเซสชันยาวได้ โดยไม่มีประวัติที่เชื่อถือได้หรือสรุป PM อาจสูญเสียการติดตามว่า AI ทำอะไรไปแล้ว นอกจากนี้ยังไม่มีแนวคิดเกี่ยวกับ ไมล์สโตนหรือเวอร์ชัน หาก PM ต้องการเปรียบเทียบต้นแบบปัจจุบันกับเวอร์ชันของสัปดาห์ที่แล้ว เครื่องมือไม่ให้ความสามารถนั้น (เว้นแต่ PM จะบันทึกสำเนาโค้ดด้วยตนเอง) การขาดประวัติหรือการจัดการสถานะนี้สามารถทำให้ยากขึ้นในการวัดความคืบหน้า ตัวอย่างเช่น หาก PM มีวัตถุประสงค์เช่น “ปรับปรุงเวลาโหลดของแอป 30%” ไม่มีเมตริกหรือเครื่องมือการวิเคราะห์ในตัวใน Bolt/Lovable เพื่อช่วยวัดสิ่งนั้น – PM จะต้องส่งออกแอปและใช้เครื่องมือวิเคราะห์ภายนอก

  • วงจรข้อเสนอแนะของผู้ใช้: การรวบรวมข้อเสนอแนะเชิงคุณภาพ (เช่นจากผู้ใช้ทดสอบหรือผู้มีส่วนได้เสีย) อยู่นอกขอบเขตของเครื่องมือเหล่านี้เช่นกัน PM อาจหวังว่าจะมีวิธีง่ายๆ สำหรับผู้ทดสอบในการส่งข้อเสนอแนะจากภายในต้นแบบหรือให้ AI แนะนำการปรับปรุงตามการโต้ตอบของผู้ใช้ แต่ฟีเจอร์เช่นนั้นไม่มีอยู่ วงจรข้อเสนอแนะใดๆ ต้องจัดระเบียบแยกต่างหาก (แบบสำรวจ, เซสชันทดสอบด้วยตนเอง ฯลฯ) โดยพื้นฐานแล้วเมื่อแอปถูกสร้างและปรับใช้ Bolt.new และ Lovable ก้าวออกไป – พวกเขาไม่ช่วยตรวจสอบว่าแอปได้รับหรือทำงานอย่างไร นี่คือช่องว่างคลาสสิกระหว่างการพัฒนาและการจัดการผลิตภัณฑ์: เครื่องมือจัดการด้านแรก (ในระดับหนึ่ง) แต่ไม่ให้สิ่งใดสำหรับด้านหลัง

เพื่อแสดงให้เห็น PM ในสตาร์ทอัพอาจใช้ Lovable เพื่อสร้างแอปเดโมสำหรับการนำร่อง แต่เมื่อเสนอผลลัพธ์ให้กับทีมของพวกเขาหรือนักลงทุน พวกเขาจะต้องพึ่งพาเรื่องราวหรือการวิเคราะห์ภายนอกเพื่อรายงานการใช้งานเพราะ Lovable เองจะไม่แสดงข้อมูลนั้น หากพวกเขาต้องการติดตามว่าการเปลี่ยนแปลงล่าสุดปรับปรุงการมีส่วนร่วมของผู้ใช้หรือไม่ พวกเขาต้องติดตั้งแอปด้วยการวิเคราะห์และอาจตรรกะการทดสอบ A/B เอง สำหรับ PMs ที่คุ้นเคยกับแพลตฟอร์มที่รวมกันมากขึ้น (แม้แต่สิ่งเช่น Webflow สำหรับเว็บไซต์มีรูปแบบของสถิติ หรือ Firebase สำหรับแอปมีการวิเคราะห์) ความเงียบของ Bolt/Lovable หลังการปรับใช้เป็นที่น่าสังเกต

โดยสรุป การขาดการวิเคราะห์และการติดตามหมายความว่า PMs ต้องกลับไปใช้วิธีการแบบดั้งเดิมในการวัดความสำเร็จ มันเป็นความคาดหวังที่พลาด – หลังจากใช้เครื่องมือ AI ที่ก้าวหน้าเช่นนี้ในการสร้างผลิตภัณฑ์ คุณอาจคาดหวังความช่วยเหลือ AI ขั้นสูงในการวิเคราะห์มัน แต่ยังไม่เป็นส่วนหนึ่งของแพ็คเกจ ตามที่คำแนะนำหนึ่งกล่าวไว้ หากคุณต้องการการวิเคราะห์กับ Lovable คุณจะต้องทำมันในวิธีเก่าเพราะ “GA ไม่ได้รวม” และเมื่อพูดถึงการติดตามความคืบหน้าการพัฒนา ภาระทั้งหมดตกอยู่กับ PM ในการรักษาสถานะโครงการใดๆ นอกเครื่องมือด้วยตนเอง ความไม่ต่อเนื่องนี้เป็นจุดเจ็บปวดที่สำคัญสำหรับผู้จัดการผลิตภัณฑ์ที่พยายามปรับปรุงกระบวนการทำงานของพวกเขาจากไอเดียไปจนถึงข้อเสนอแนะจากผู้ใช้

สรุป: มุมมองเปรียบเทียบ

จากเรื่องราวและรีวิวของผู้ใช้จริง เป็นที่ชัดเจนว่า Bolt.new และ Lovable แต่ละตัวมีจุดแข็งแต่ก็มีจุดเจ็บปวดที่สำคัญสำหรับผู้จัดการผลิตภัณฑ์ ทั้งสองให้ผลลัพธ์ที่น่าประทับใจในคำสัญญาหลักของพวกเขา – การสร้างต้นแบบแอปที่ทำงานได้อย่างรวดเร็ว – ซึ่งเป็นเหตุผลที่พวกเขาดึงดูดผู้ใช้หลายพันคน อย่างไรก็ตาม เมื่อมองผ่านเลนส์ของ PM ที่ไม่เพียงต้องสร้างผลิตภัณฑ์แต่ยังต้องทำงานร่วมกัน วางแผน และทำซ้ำ เครื่องมือเหล่านี้แสดงข้อจำกัดที่คล้ายกัน

  • Bolt.new มักให้ความยืดหยุ่นมากขึ้น (คุณสามารถเลือกเฟรมเวิร์ก ปรับแต่งโค้ดได้โดยตรงมากขึ้น) และความเร็วดิบ แต่แลกกับการบำรุงรักษาที่สูงขึ้น PMs ที่ไม่มีความเชี่ยวชาญในการเขียนโค้ดอาจเจอทางตันเมื่อ Bolt ทำให้เกิดข้อผิดพลาดหรือจำเป็นต้องแก้ไขด้วยตนเอง โมเดลที่ใช้โทเค็นและฟีเจอร์การรวมที่มีอยู่ในช่วงแรกมักนำไปสู่ความหงุดหงิดและขั้นตอนเพิ่มเติม Bolt สามารถมองว่าเป็นเครื่องมือที่ทรงพลังแต่หยาบ – เหมาะสำหรับการแฮ็กอย่างรวดเร็วหรือผู้ใช้ที่มีความรู้ทางเทคนิค แต่ไม่เหมาะสำหรับกระบวนการทำงานของทีมที่มีการขัดเกลา

  • Lovable วางตำแหน่งตัวเองเป็น “วิศวกร full-stack AI” ที่เป็นมิตรกับผู้ใช้มากขึ้น ซึ่งแปลเป็นประสบการณ์ที่ราบรื่นขึ้นสำหรับผู้ที่ไม่ใช่วิศวกร มันนามธรรมมากขึ้นจากขอบที่หยาบ (ด้วยการปรับใช้ในตัว, การซิงค์ GitHub ฯลฯ) และมีอคติต่อการแนะนำผู้ใช้ด้วยผลลัพธ์ที่มีโครงสร้าง (โค้ดเริ่มต้นที่สะอาดกว่า, การรวมการออกแบบ) ซึ่งหมายความว่า PMs โดยทั่วไป “ไปได้ไกลกว่ากับ Lovable” ก่อนที่จะต้องการการแทรกแซงจากนักพัฒนา อย่างไรก็ตาม Lovable แบ่งปันจุดเจ็บปวดหลักหลายประการของ Bolt: มันไม่ใช่เวทมนตร์ – ผู้ใช้ยังคงพบพฤติกรรม AI ที่สับสน ต้องเริ่มต้นใหม่ในบางครั้ง และต้องออกจากแพลตฟอร์มสำหรับสิ่งใดที่เกินกว่าการสร้างต้นแบบ นอกจากนี้ ฟีเจอร์เพิ่มเติมของ Lovable (เช่น การแก้ไขภาพ หรือการรวมบางอย่าง) ยังคงพัฒนาและบางครั้งยุ่งยากในตัวเอง (เช่นผู้ใช้คนหนึ่งพบว่ากระบวนการปรับใช้ของ Lovable น่ารำคาญกว่า Bolt แม้ว่าจะเป็นคลิกเดียว – อาจเนื่องจากขาดการปรับแต่งหรือการควบคุม)

ในมุมมองเปรียบเทียบ เครื่องมือทั้งสองมีความคล้ายคลึงกันในสิ่งที่พวกเขาขาด พวกเขาไม่แทนที่ความจำเป็นในการจัดการผลิตภัณฑ์อย่างรอบคอบ; พวกเขาเร่งหนึ่งด้านของมัน (การดำเนินการ) โดยแลกกับการสร้างความท้าทายใหม่ในด้านอื่น (การแก้ไขข้อบกพร่อง, การทำงานร่วมกัน) สำหรับผู้จัดการผลิตภัณฑ์ การใช้ Bolt.new หรือ Lovable เป็นเหมือนการกรอไปข้างหน้าเพื่อให้มีเวอร์ชันแรกของผลิตภัณฑ์ของคุณ – ซึ่งมีค่ามาก – แต่จากนั้นตระหนักว่าคุณต้องช้าลงอีกครั้งเพื่อจัดการกับรายละเอียดและกระบวนการทั้งหมดที่เครื่องมือไม่ได้ครอบคลุม

เพื่อจัดการความคาดหวัง PMs ได้เรียนรู้ที่จะใช้เครื่องมือ AI เหล่านี้ เป็นส่วนเสริม ไม่ใช่โซลูชันที่ครอบคลุม ดังที่รีวิว Medium หนึ่งกล่าวไว้อย่างชาญฉลาด: เครื่องมือเหล่านี้ “เปลี่ยนแนวคิดของฉันให้เป็นโครงกระดูกแอปที่ใช้งานได้อย่างรวดเร็ว” แต่คุณยังคง “ต้องการการดูแลจากมนุษย์มากขึ้นเมื่อเพิ่มความซับซ้อน” จุดเจ็บปวดทั่วไป – ปัญหา UX, ช่องว่างในกระบวนการทำงาน, ความต้องการการรวม, การวางแผนและการวิเคราะห์ที่ขาดหายไป – เน้นว่า Bolt.new และ Lovable เหมาะสมที่สุดสำหรับการสร้างต้นแบบและการสำรวจ มากกว่าการจัดการผลิตภัณฑ์จากต้นจนจบ รู้ข้อจำกัดเหล่านี้ ผู้จัดการผลิตภัณฑ์สามารถวางแผนรอบๆ พวกมัน: เพลิดเพลินกับชัยชนะที่รวดเร็วที่พวกเขาให้ แต่เตรียมนำเครื่องมือและความเชี่ยวชาญของมนุษย์ตามปกติเพื่อปรับปรุงและขับเคลื่อนผลิตภัณฑ์ไปข้างหน้า

แหล่งที่มา:

  • การสนทนาของผู้ใช้จริงบน Reddit, Product Hunt, และ LinkedIn ที่เน้นความหงุดหงิดกับ Bolt.new และ Lovable
  • รีวิวและความคิดเห็นจาก G2 และ Product Hunt ที่เปรียบเทียบเครื่องมือสองตัวนี้และระบุสิ่งที่ชอบ/ไม่ชอบ
  • รีวิวบล็อกที่ละเอียด (NoCode MBA, Trickle, Fine.dev) ที่วิเคราะห์ขีดจำกัดของฟีเจอร์, การใช้โทเค็น, และปัญหาการรวม
  • เอกสารและคำแนะนำอย่างเป็นทางการที่ระบุการขาดการรวมบางอย่าง (เช่น การวิเคราะห์) และความจำเป็นในการแก้ไขด้วยตนเอง

รายงานการวิจัยประสบการณ์ผลิตภัณฑ์และความต้องการของผู้ใช้แพลตฟอร์ม Team-GPT

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

บทนำ

Team-GPT เป็นแพลตฟอร์มการทำงานร่วมกันของ AI ที่มุ่งเน้นไปที่ทีมและองค์กร ออกแบบมาเพื่อเพิ่มประสิทธิภาพการทำงานโดยให้ผู้ใช้หลายคนแชร์และทำงานร่วมกันโดยใช้โมเดลภาษาขนาดใหญ่ (LLMs) แพลตฟอร์มนี้เพิ่งได้รับเงินทุน 4.5 ล้านดอลลาร์เพื่อเสริมสร้างโซลูชัน AI สำหรับองค์กร รายงานนี้วิเคราะห์กรณีการใช้งานทั่วไปของ Team-GPT ความต้องการหลักของผู้ใช้ ไฮไลท์คุณสมบัติที่มีอยู่ จุดเจ็บปวดของผู้ใช้และความต้องการที่ยังไม่บรรลุผล และการวิเคราะห์เปรียบเทียบกับผลิตภัณฑ์ที่คล้ายกัน เช่น Notion AI, Slack GPT และ ChatHub จากมุมมองของผู้จัดการผลิตภัณฑ์

รายงานการวิจัยประสบการณ์ผลิตภัณฑ์และความต้องการของผู้ใช้แพลตฟอร์ม Team-GPT

I. สถานการณ์ผู้ใช้หลักและความต้องการหลัก

1. การทำงานร่วมกันของทีมและการแบ่งปันความรู้: มูลค่าสูงสุดของ Team-GPT อยู่ที่การสนับสนุนสถานการณ์การใช้งาน AI สำหรับการทำงานร่วมกันของผู้ใช้หลายคน สมาชิกหลายคนสามารถมีส่วนร่วมในการสนทนากับ AI บนแพลตฟอร์มเดียวกัน แบ่งปันบันทึกการสนทนา และเรียนรู้จากบทสนทนาของกันและกัน สิ่งนี้แก้ไขปัญหาการไหลของข้อมูลภายในทีมภายใต้โมเดลการสนทนาแบบส่วนตัวของ ChatGPT แบบดั้งเดิม ตามที่ผู้ใช้รายหนึ่งกล่าวว่า "ส่วนที่มีประโยชน์ที่สุดคือการสามารถแชร์การสนทนาของคุณกับเพื่อนร่วมงานและทำงานร่วมกันในชิ้นงานคัดลอก/เนื้อหา" สถานการณ์ทั่วไปสำหรับความต้องการการทำงานร่วมกันนี้รวมถึงการระดมความคิด การสนทนาของทีม และการทบทวนและปรับปรุงคำแนะนำของ AI ของกันและกัน ทำให้การสร้างร่วมกันของทีมเป็นไปได้

2. การสร้างเอกสารร่วมและการผลิตเนื้อหา: ทีมจำนวนมากใช้ Team-GPT สำหรับการเขียนและแก้ไขเนื้อหาต่างๆ เช่น สำเนาการตลาด โพสต์บล็อก อีเมลธุรกิจ และเอกสารผลิตภัณฑ์ คุณลักษณะ "Pages" ในตัวของ Team-GPT ซึ่งเป็นโปรแกรมแก้ไขเอกสารที่ขับเคลื่อนด้วย AI รองรับกระบวนการทั้งหมดตั้งแต่ร่างจนถึงการสรุป ผู้ใช้สามารถให้ AI ขัดเกลาย่อหน้า ขยายหรือบีบอัดเนื้อหา และทำงานร่วมกับสมาชิกในทีมเพื่อทำเอกสารให้เสร็จสิ้นแบบเรียลไทม์ ผู้จัดการฝ่ายการตลาดให้ความเห็นว่า "Team-GPT เป็นเครื่องมือที่ฉันใช้สำหรับงานประจำวัน เช่น การเขียนอีเมล บทความบล็อก และการระดมความคิด เป็นเครื่องมือการทำงานร่วมกันที่มีประโยชน์มาก!" สิ่งนี้แสดงให้เห็นว่า Team-GPT ได้กลายเป็นเครื่องมือที่ขาดไม่ได้ในการสร้างเนื้อหาในแต่ละวัน นอกจากนี้ ทีม HR และบุคลากรยังใช้เพื่อร่างเอกสารนโยบาย ภาคการศึกษาเพื่อสร้างสื่อการเรียนการสอนร่วมกัน และผู้จัดการผลิตภัณฑ์สำหรับเอกสารข้อกำหนดและบทสรุปการวิจัยผู้ใช้ ด้วยพลังของ AI ประสิทธิภาพการสร้างเอกสารจึงเพิ่มขึ้นอย่างมาก

3. การจัดการความรู้โครงการ: Team-GPT นำเสนอแนวคิด "Projects" ที่สนับสนุนการจัดระเบียบการแชทและเอกสารตามโครงการ/ธีม และแนบบริบทความรู้ที่เกี่ยวข้องกับโครงการ ผู้ใช้สามารถอัปโหลดเอกสารประกอบ เช่น ข้อกำหนดของผลิตภัณฑ์ คู่มือแบรนด์ และเอกสารทางกฎหมายเพื่อเชื่อมโยงกับโครงการ และ AI จะอ้างอิงเอกสารเหล่านี้โดยอัตโนมัติในการสนทนาทั้งหมดภายในโครงการ สิ่งนี้ตอบสนองความต้องการหลักสำหรับการจัดการความรู้ของทีม—ทำให้ AI คุ้นเคยกับความรู้เฉพาะของทีมเพื่อให้คำตอบที่เกี่ยวข้องกับบริบทมากขึ้นและลดความยุ่งยากในการให้ข้อมูลพื้นฐานซ้ำๆ ตัวอย่างเช่น ทีมการตลาดสามารถอัปโหลดแนวทางปฏิบัติของแบรนด์ และ AI จะปฏิบัติตามโทนเสียงของแบรนด์เมื่อสร้างเนื้อหา ทีมกฎหมายสามารถอัปโหลดข้อความข้อบังคับ และ AI จะอ้างอิงข้อที่เกี่ยวข้องเมื่อทำการตอบกลับ คุณลักษณะ "ความรู้โครงการ" นี้ช่วยให้ AI "รู้บริบทของคุณ" ช่วยให้ AI "คิดเหมือนสมาชิกในทีมของคุณ"

4. การใช้งานหลายโมเดลและสถานการณ์ระดับมืออาชีพ: งานต่างๆ อาจต้องใช้โมเดล AI ที่แตกต่างกัน Team-GPT รองรับการรวมโมเดลขนาดใหญ่กระแสหลักหลายโมเดล เช่น OpenAI GPT-4, Anthropic Claude 2 และ Meta Llama ช่วยให้ผู้ใช้สามารถเลือกโมเดลที่เหมาะสมที่สุดตามลักษณะงาน ตัวอย่างเช่น สามารถเลือก Claude สำหรับการวิเคราะห์ข้อความยาว (ที่มีบริบทยาวกว่า) โมเดล Code LLM เฉพาะสำหรับปัญหาการเข้ารหัส และ GPT-4 สำหรับการแชทในชีวิตประจำวัน ผู้ใช้ที่เปรียบเทียบ ChatGPT ตั้งข้อสังเกตว่า "Team-GPT เป็นวิธีการทำงานร่วมกันที่ง่ายกว่ามากในการใช้ AI เมื่อเทียบกับ ChatGPT ... เราใช้มันมากในด้านการตลาดและการสนับสนุนลูกค้า" ทีมสามารถใช้โมเดลหลายโมเดลได้อย่างง่ายดายและนำไปใช้ในแผนกต่างๆ: แผนกการตลาดสร้างเนื้อหา และแผนกบริการลูกค้าเขียนคำตอบ ทั้งหมดนี้อยู่บนแพลตฟอร์มเดียว สิ่งนี้สะท้อนถึงความต้องการของผู้ใช้สำหรับการเรียกใช้ AI ที่ยืดหยุ่นและแพลตฟอร์มแบบครบวงจร ในขณะเดียวกัน Team-GPT ยังมีเทมเพลตคำแนะนำที่สร้างไว้ล่วงหน้าและไลบรารีกรณีการใช้งานในอุตสาหกรรม ทำให้ผู้มาใหม่เริ่มต้นได้ง่ายและเตรียมพร้อมสำหรับ "วิธีการทำงานในอนาคต"

5. ระบบอัตโนมัติของงานประจำวัน: นอกเหนือจากการผลิตเนื้อหาแล้ว ผู้ใช้ยังใช้ Team-GPT เพื่อจัดการกับงานประจำวันอันน่าเบื่อหน่ายอีกด้วย ตัวอย่างเช่น ผู้ช่วยอีเมลในตัวสามารถสร้างอีเมลตอบกลับแบบมืออาชีพจากบันทึกการประชุมได้ด้วยคลิกเดียว ตัววิเคราะห์ Excel/CSV สามารถดึงจุดข้อมูลได้อย่างรวดเร็ว และเครื่องมือสรุป YouTube สามารถจับใจความสำคัญของวิดีโอยาวๆ ได้ เครื่องมือเหล่านี้ครอบคลุมเวิร์กโฟลว์ทั่วไปในสำนักงาน ช่วยให้ผู้ใช้ทำการวิเคราะห์ข้อมูล การดึงข้อมูล และการสร้างภาพภายใน Team-GPT โดยไม่ต้องสลับแพลตฟอร์ม สถานการณ์เหล่านี้ตอบสนองความต้องการของผู้ใช้สำหรับระบบอัตโนมัติของเวิร์กโฟลว์ ประหยัดเวลาได้มาก ดังที่ผู้ใช้รายหนึ่งให้ความเห็นว่า "ประหยัดเวลาอันมีค่าในการเขียนอีเมล การวิเคราะห์ข้อมูล การดึงเนื้อหา และอื่นๆ ด้วยความช่วยเหลือจาก AI" Team-GPT ช่วยให้ทีมมอบหมายงานซ้ำๆ ให้กับ AI และมุ่งเน้นไปที่งานที่มีมูลค่าสูงกว่า

โดยสรุป ความต้องการหลักของผู้ใช้ Team-GPT มุ่งเน้นไปที่ทีมที่ใช้ AI ในการทำงานร่วมกันเพื่อสร้างเนื้อหา แบ่งปันความรู้ จัดการความรู้โครงการ และทำให้งานประจำวันเป็นอัตโนมัติ ความต้องการเหล่านี้สะท้อนให้เห็นในสถานการณ์ทางธุรกิจจริง รวมถึงการแชทแบบร่วมมือกันหลายผู้ใช้ การสร้างเอกสารแบบเรียลไทม์ การสร้างไลบรารีคำแนะนำที่ใช้ร่วมกัน การจัดการเซสชัน AI แบบครบวงจร และการให้คำตอบที่ถูกต้องตามบริบท

II. คุณสมบัติผลิตภัณฑ์หลักและไฮไลท์บริการ

1. พื้นที่ทำงาน AI ที่แชร์โดยทีม: Team-GPT มอบพื้นที่แชทที่ใช้ร่วมกันที่เน้นทีม ซึ่งได้รับการยกย่องจากผู้ใช้ในด้านการออกแบบที่ใช้งานง่ายและเครื่องมือการจัดระเบียบ การสนทนาและเนื้อหาทั้งหมดสามารถเก็บถาวรและจัดการตามโครงการหรือโฟลเดอร์ รองรับระดับโฟลเดอร์ย่อย ทำให้ทีมสามารถจัดหมวดหมู่และจัดระเบียบความรู้ได้อย่างง่ายดาย ตัวอย่างเช่น ผู้ใช้สามารถสร้างโครงการตามแผนก ลูกค้า หรือธีม รวบรวมการแชทและหน้าเว็บที่เกี่ยวข้องไว้ภายในโครงการเหล่านั้น ทำให้ทุกอย่างเป็นระเบียบ โครงสร้างการจัดระเบียบนี้ช่วยให้ผู้ใช้ "ค้นหาเนื้อหาที่ต้องการได้อย่างรวดเร็วเมื่อจำเป็น" แก้ปัญหาการบันทึกการสนทนาที่ไม่เป็นระเบียบและยากต่อการดึงข้อมูลเมื่อใช้ ChatGPT เป็นรายบุคคล นอกจากนี้ เธรดการสนทนาแต่ละรายการยังรองรับฟีเจอร์ความคิดเห็น ช่วยให้สมาชิกในทีมสามารถแสดงความคิดเห็นข้างการสนทนาเพื่อการทำงานร่วมกันแบบอะซิงโครนัส ประสบการณ์การทำงานร่วมกันที่ราบรื่นนี้ได้รับการยอมรับจากผู้ใช้: "การออกแบบที่ใช้งานง่ายของแพลตฟอร์มช่วยให้เราสามารถจัดหมวดหมู่การสนทนาได้อย่างง่ายดาย... เพิ่มความสามารถในการแบ่งปันความรู้และปรับปรุงการสื่อสารของเรา"

2. ตัวแก้ไขเอกสาร Pages: ฟีเจอร์ "Pages" เป็นไฮไลท์ของ Team-GPT ซึ่งเทียบเท่ากับโปรแกรมแก้ไขเอกสารในตัวที่มีผู้ช่วย AI ผู้ใช้สามารถสร้างเอกสารตั้งแต่เริ่มต้นใน Pages โดยมี AI มีส่วนร่วมในการขัดเกลาและเขียนใหม่ในแต่ละย่อหน้า โปรแกรมแก้ไขรองรับการเพิ่มประสิทธิภาพ AI แบบย่อหน้าต่อย่อหน้า การขยาย/บีบอัดเนื้อหา และอนุญาตให้แก้ไขร่วมกัน AI ทำหน้าที่เป็น "เลขานุการแก้ไข" แบบเรียลไทม์ ช่วยในการปรับแต่งเอกสาร สิ่งนี้ช่วยให้ทีม "ไปจากร่างถึงขั้นสุดท้ายได้ในไม่กี่วินาทีด้วยโปรแกรมแก้ไข AI ของคุณ" ปรับปรุงประสิทธิภาพการประมวลผลเอกสารได้อย่างมาก ตามที่เว็บไซต์ทางการระบุว่า Pages ช่วยให้ผู้ใช้ "ไปจากร่างถึงขั้นสุดท้ายได้ในไม่กี่วินาทีด้วยโปรแกรมแก้ไข AI ของคุณ" คุณลักษณะนี้ได้รับการต้อนรับเป็นพิเศษจากทีมเนื้อหา—การรวม AI เข้ากับกระบวนการเขียนโดยตรง ขจัดความยุ่งยากในการคัดลอกและวางซ้ำๆ ระหว่าง ChatGPT และซอฟต์แวร์เอกสาร

3. ไลบรารีคำแนะนำ: เพื่ออำนวยความสะดวกในการสะสมและนำคำแนะนำที่ยอดเยี่ยมกลับมาใช้ใหม่ Team-GPT มีไลบรารีคำแนะนำและตัวสร้างคำแนะนำ ทีมสามารถออกแบบเทมเพลตคำแนะนำที่เหมาะกับธุรกิจของตนและบันทึกไว้ในไลบรารีเพื่อให้สมาชิกทุกคนใช้ คำแนะนำสามารถจัดระเบียบและจัดหมวดหมู่ตามธีม คล้ายกับ "คัมภีร์คำแนะนำ" ภายใน สิ่งนี้มีความสำคัญอย่างยิ่งสำหรับทีมที่มุ่งมั่นเพื่อผลลัพธ์ที่สอดคล้องและมีคุณภาพสูง ตัวอย่างเช่น ทีมบริการลูกค้าสามารถบันทึกเทมเพลตการตอบกลับลูกค้าที่ได้รับคะแนนสูงเพื่อให้ผู้มาใหม่ใช้ได้โดยตรง ทีมการตลาดสามารถใช้คำแนะนำการคัดลอกเชิงสร้างสรรค์ที่สะสมไว้ซ้ำๆ ได้ ผู้ใช้รายหนึ่งเน้นย้ำประเด็นนี้ว่า "การบันทึกคำแนะนำช่วยประหยัดเวลาและความพยายามในการทำซ้ำสิ่งที่ได้ผลดีกับ AI" ไลบรารีคำแนะนำช่วยลดเกณฑ์การใช้งาน AI ทำให้แนวทางปฏิบัติที่ดีที่สุดแพร่กระจายอย่างรวดเร็วภายในทีม

4. การเข้าถึงและการสลับหลายโมเดล: Team-GPT รองรับการเข้าถึงโมเดลขนาดใหญ่หลายโมเดลพร้อมกัน ซึ่งมีฟังก์ชันการทำงานเหนือกว่าแพลตฟอร์มโมเดลเดียว ผู้ใช้สามารถสลับระหว่างเอ็นจิ้น AI ต่างๆ ในการสนทนาได้อย่างยืดหยุ่น เช่น GPT-4 ของ OpenAI, Claude ของ Anthropic, Meta Llama2 และแม้แต่ LLM ที่เป็นเจ้าของโดยองค์กร การสนับสนุนหลายโมเดลนี้นำมาซึ่งความแม่นยำและความเป็นมืออาชีพในระดับที่สูงขึ้น: การเลือกโมเดลที่เหมาะสมที่สุดสำหรับงานต่างๆ ตัวอย่างเช่น แผนกกฎหมายอาจไว้วางใจคำตอบที่เข้มงวดของ GPT-4 มากกว่า ทีมข้อมูลชอบความสามารถในการประมวลผลบริบทยาวของ Claude และนักพัฒนาสามารถรวมโมเดลโค้ดโอเพ่นซอร์สได้ ในขณะเดียวกัน โมเดลหลายโมเดลยังมีพื้นที่เพิ่มประสิทธิภาพด้านต้นทุน (โดยใช้โมเดลที่ถูกกว่าสำหรับงานง่ายๆ) Team-GPT ระบุไว้อย่างชัดเจนว่าสามารถ "ปลดล็อกศักยภาพของพื้นที่ทำงานของคุณด้วยโมเดลภาษาที่ทรงพลัง... และอีกมากมาย" สิ่งนี้โดดเด่นเป็นพิเศษเมื่อเทียบกับเวอร์ชันทีมอย่างเป็นทางการของ ChatGPT ซึ่งสามารถใช้โมเดลของ OpenAI ได้เท่านั้น ในขณะที่ Team-GPT ทำลายข้อจำกัดของผู้จำหน่ายรายเดียว

5. เครื่องมือ AI ในตัวที่หลากหลาย: เพื่อตอบสนองสถานการณ์ทางธุรกิจต่างๆ Team-GPT มีชุดเครื่องมือที่ใช้งานได้จริงในตัว ซึ่งเทียบเท่ากับส่วนขยายปลั๊กอินของ ChatGPT ซึ่งช่วยเพิ่มประสบการณ์สำหรับงานเฉพาะ ตัวอย่างเช่น:

  • ผู้ช่วยอีเมล (Email Composer): ป้อนบันทึกการประชุมหรือเนื้อหาอีเมลก่อนหน้า และ AI จะสร้างอีเมลตอบกลับที่มีถ้อยคำดีโดยอัตโนมัติ สิ่งนี้มีประโยชน์อย่างยิ่งสำหรับทีมขายและบริการลูกค้า ช่วยให้ร่างอีเมลแบบมืออาชีพได้อย่างรวดเร็ว
  • รูปภาพเป็นข้อความ: อัปโหลดภาพหน้าจอหรือรูปถ่ายเพื่อดึงข้อความอย่างรวดเร็ว ประหยัดเวลาในการถอดความด้วยตนเอง อำนวยความสะดวกในการจัดระเบียบเอกสารกระดาษหรือเนื้อหาที่สแกน
  • การนำทางวิดีโอ YouTube: ป้อนลิงก์วิดีโอ YouTube และ AI สามารถค้นหาวิดีโอเนื้อหา ตอบคำถามที่เกี่ยวข้องกับเนื้อหาวิดีโอ หรือสร้างบทสรุป สิ่งนี้ช่วยให้ทีมได้รับข้อมูลจากวิดีโอได้อย่างมีประสิทธิภาพสำหรับการฝึกอบรมหรือการวิเคราะห์การแข่งขัน
  • การวิเคราะห์ข้อมูล Excel/CSV: อัปโหลดไฟล์ข้อมูลสเปรดชีต และ AI ให้ข้อมูลสรุปและการวิเคราะห์เปรียบเทียบโดยตรง สิ่งนี้คล้ายกับ "Code Interpreter" ที่เรียบง่าย ช่วยให้บุคลากรที่ไม่ใช่ด้านเทคนิคได้รับข้อมูลเชิงลึกจากข้อมูล

นอกเหนือจากเครื่องมือข้างต้นแล้ว Team-GPT ยังรองรับการวิเคราะห์การอัปโหลดเอกสาร PDF การนำเข้าข้อมูลเว็บ และการสร้างข้อความเป็นรูปภาพ ทีมสามารถทำกระบวนการทั้งหมดตั้งแต่การประมวลผลข้อมูลไปจนถึงการสร้างเนื้อหาบนแพลตฟอร์มเดียวโดยไม่ต้องซื้อปลั๊กอินเพิ่มเติม แนวคิด "เวิร์กสเตชัน AI แบบครบวงจร" นี้ตามที่อธิบายไว้ในเว็บไซต์ทางการ "คิดว่า Team-GPT เป็นศูนย์บัญชาการแบบครบวงจรสำหรับการดำเนินงาน AI ของคุณ" เมื่อเทียบกับการใช้เครื่องมือ AI หลายอย่างแยกกัน Team-GPT ช่วยลดความยุ่งยากในเวิร์กโฟลว์ของผู้ใช้ได้อย่างมาก

6. ความสามารถในการรวมบุคคลที่สาม: เมื่อพิจารณาถึงเครื่องมือขององค์กรที่มีอยู่ Team-GPT กำลังรวมเข้ากับซอฟต์แวร์ที่ใช้กันทั่วไปต่างๆ อย่างค่อยเป็นค่อยไป ตัวอย่างเช่น ได้รวมเข้ากับ Jira แล้ว รองรับการสร้างงาน Jira โดยตรงจากเนื้อหาแชท การผสานรวมกับ Notion ที่กำลังจะมีขึ้นจะช่วยให้ AI เข้าถึงและอัปเดตเอกสาร Notion ได้โดยตรง และแผนการผสานรวมกับ HubSpot, Confluence และเครื่องมือขององค์กรอื่นๆ นอกจากนี้ Team-GPT ยังอนุญาตให้เข้าถึง API ไปยังโมเดลขนาดใหญ่ที่เป็นเจ้าของหรือโอเพ่นซอร์สและโมเดลที่ปรับใช้ในคลาวด์ส่วนตัว เพื่อตอบสนองความต้องการในการปรับแต่งขององค์กร แม้ว่าการผสานรวมโดยตรงกับ Slack / Microsoft Teams จะยังไม่ได้เปิดตัว แต่ผู้ใช้ต่างคาดหวังอย่างมากว่า "สิ่งเดียวที่ฉันจะเปลี่ยนคือการผสานรวมกับ Slack และ/หรือ Teams... หากสิ่งนั้นเกิดขึ้นจะเป็นตัวเปลี่ยนเกม" กลยุทธ์การผสานรวมแบบเปิดนี้ทำให้ Team-GPT ง่ายต่อการรวมเข้ากับสภาพแวดล้อมการทำงานร่วมกันขององค์กรที่มีอยู่ กลายเป็นส่วนหนึ่งของระบบนิเวศสำนักงานดิจิทัลทั้งหมด

7. การควบคุมความปลอดภัยและการอนุญาต: สำหรับผู้ใช้ระดับองค์กร ความปลอดภัยของข้อมูลและการควบคุมการอนุญาตเป็นข้อพิจารณาที่สำคัญ Team-GPT ให้การปกป้องหลายชั้นในเรื่องนี้: ในแง่หนึ่ง รองรับการโฮสต์ข้อมูลในสภาพแวดล้อมขององค์กรเอง (เช่น AWS private cloud) เพื่อให้แน่ใจว่าข้อมูล "ไม่ออกจากสถานที่"; ในทางกลับกัน สามารถตั้งค่าการอนุญาตการเข้าถึงโครงการพื้นที่ทำงานเพื่อควบคุมอย่างละเอียดว่าสมาชิกคนใดสามารถเข้าถึงโครงการและเนื้อหาของโครงการใดได้บ้าง ผ่านการจัดการสิทธิ์โครงการและฐานความรู้ ข้อมูลที่ละเอียดอ่อนจะไหลเวียนเฉพาะในช่วงที่ได้รับอนุญาตเท่านั้น ป้องกันการเข้าถึงโดยไม่ได้รับอนุญาต นอกจากนี้ Team-GPT ยังอ้างว่าไม่มีการเก็บรักษาข้อมูลผู้ใช้ หมายความว่าเนื้อหาการแชทจะไม่ถูกใช้เพื่อฝึกอบรมโมเดลหรือมอบให้กับบุคคลที่สาม (ตามความคิดเห็นของผู้ใช้บน Reddit "0 การเก็บรักษาข้อมูล" เป็นจุดขาย) ผู้ดูแลระบบยังสามารถใช้รายงานการนำ AI มาใช้เพื่อตรวจสอบการใช้งานของทีม ทำความเข้าใจว่าแผนกใดใช้ AI บ่อยครั้ง และมีความสำเร็จอะไรบ้าง สิ่งนี้ไม่เพียงช่วยระบุความต้องการในการฝึกอบรม แต่ยังช่วยหาปริมาณประโยชน์ที่ AI นำมาอีกด้วย เป็นผลให้ผู้บริหารลูกค้ารายหนึ่งให้ความเห็นว่า "Team-GPT ตอบสนองเกณฑ์ [ความปลอดภัย] ทั้งหมดของเราได้อย่างมีประสิทธิภาพ ทำให้เป็นตัวเลือกที่เหมาะสมสำหรับความต้องการของเรา"

8. การสนับสนุนผู้ใช้ที่มีคุณภาพและการปรับปรุงอย่างต่อเนื่อง: ผู้ใช้หลายคนกล่าวถึงการสนับสนุนลูกค้าของ Team-GPT ว่าตอบสนองและเป็นประโยชน์มาก ไม่ว่าจะเป็นการตอบคำถามการใช้งานหรือการแก้ไขข้อบกพร่อง ทีมงานอย่างเป็นทางการแสดงทัศนคติเชิงบวก ผู้ใช้รายหนึ่งถึงกับแสดงความคิดเห็นว่า "การสนับสนุนลูกค้าของพวกเขานั้นเกินกว่าที่ลูกค้าจะขอได้... ติดต่อได้อย่างรวดเร็วและง่ายดาย" นอกจากนี้ ทีมผลิตภัณฑ์ยังคงรักษาความถี่ในการทำซ้ำสูง เปิดตัวคุณสมบัติและการปรับปรุงใหม่อย่างต่อเนื่อง (เช่น การอัปเดตเวอร์ชันหลัก 2.0 ในปี 2024) ผู้ใช้ระยะยาวจำนวนมากกล่าวว่าผลิตภัณฑ์ "ยังคงปรับปรุงต่อไป" และ "คุณสมบัติได้รับการปรับแต่งอย่างต่อเนื่อง" ความสามารถในการรับฟังความคิดเห็นและทำซ้ำอย่างรวดเร็วนี้ทำให้ผู้ใช้มั่นใจใน Team-GPT เป็นผลให้ Team-GPT ได้รับคะแนนผู้ใช้ 5/5 บน Product Hunt (24 รีวิว); นอกจากนี้ยังมีคะแนนรวม 4.6/5 บน AppSumo (68 รีวิว) อาจกล่าวได้ว่าประสบการณ์และบริการที่ดีทำให้มีผู้ติดตามที่ภักดี

โดยสรุป Team-GPT ได้สร้างชุดฟังก์ชันหลักที่ครอบคลุมตั้งแต่การทำงานร่วมกัน การสร้าง การจัดการ ไปจนถึงความปลอดภัย เพื่อตอบสนองความต้องการที่หลากหลายของผู้ใช้ในทีม ไฮไลท์ของมันรวมถึงการจัดหาสภาพแวดล้อมการทำงานร่วมกันที่ทรงพลังและการผสมผสานเครื่องมือ AI ที่หลากหลาย ในขณะเดียวกันก็พิจารณาถึงความปลอดภัยและการสนับสนุนในระดับองค์กร ตามสถิติ ปัจจุบันมีทีมมากกว่า 250 ทีมทั่วโลกที่ใช้ Team-GPT—สิ่งนี้แสดงให้เห็นถึงความสามารถในการแข่งขันในด้านประสบการณ์ผลิตภัณฑ์อย่างเต็มที่

III. จุดเจ็บปวดของผู้ใช้ทั่วไปและความต้องการที่ยังไม่บรรลุผล

แม้ว่า Team-GPT จะมีคุณสมบัติที่ทรงพลังและประสบการณ์โดยรวมที่ดี แต่จากความคิดเห็นและบทวิจารณ์ของผู้ใช้ ยังมีจุดเจ็บปวดและพื้นที่สำหรับการปรับปรุงบางประการ:

1. ปัญหาการปรับตัวที่เกิดจากการเปลี่ยนแปลงอินเทอร์เฟซ: ในเวอร์ชัน Team-GPT 2.0 ที่เปิดตัวในช่วงปลายปี 2024 มีการปรับเปลี่ยนอินเทอร์เฟซและการนำทางอย่างมีนัยสำคัญ ทำให้ผู้ใช้ที่ใช้มานานบางรายไม่พอใจ ผู้ใช้บางคนบ่นว่า UX ใหม่มีความซับซ้อนและใช้งานยาก: "ตั้งแต่ 2.0 ฉันมักจะพบกับการค้างของอินเทอร์เฟซระหว่างการสนทนายาวๆ และ UX ก็เข้าใจยากจริงๆ" โดยเฉพาะอย่างยิ่ง ผู้ใช้รายงานว่าแถบด้านข้างเก่าช่วยให้สลับไปมาระหว่างโฟลเดอร์และการแชทได้ง่าย ในขณะที่เวอร์ชันใหม่ต้องการการคลิกหลายครั้งเพื่อเจาะลึกเข้าไปในโฟลเดอร์เพื่อค้นหาการแชท ทำให้การดำเนินการยุ่งยากและไม่มีประสิทธิภาพ สิ่งนี้ก่อให้เกิดความไม่สะดวกสำหรับผู้ใช้ที่ต้องสลับไปมาระหว่างหลายหัวข้อบ่อยครั้ง ผู้ใช้ในช่วงแรกกล่าวอย่างตรงไปตรงมาว่า "UI ล่าสุดยอดเยี่ยม... ตอนนี้... คุณต้องคลิกผ่านโฟลเดอร์เพื่อค้นหาการแชทของคุณ ทำให้กระบวนการยาวขึ้นและไม่มีประสิทธิภาพ" เห็นได้ชัดว่าการเปลี่ยนแปลง UI ที่สำคัญโดยไม่มีคำแนะนำอาจกลายเป็นจุดเจ็บปวดของผู้ใช้ เพิ่มเส้นโค้งการเรียนรู้ และผู้ใช้ที่ภักดีบางคนถึงกับลดความถี่ในการใช้งานลง

2. ปัญหาด้านประสิทธิภาพและความล่าช้าในการสนทนายาว: ผู้ใช้หนักรายงานว่าเมื่อเนื้อหาการสนทนายาวหรือระยะเวลาการแชทขยายออกไป อินเทอร์เฟซ Team-GPT จะประสบปัญหาการค้างและความล่าช้า ตัวอย่างเช่น ผู้ใช้บน AppSumo กล่าวถึง "การค้างในการแชทยาวๆ" สิ่งนี้บ่งชี้ถึงการเพิ่มประสิทธิภาพประสิทธิภาพส่วนหน้าที่ไม่เพียงพอเมื่อจัดการกับปริมาณข้อความขนาดใหญ่หรือบริบทที่ยาวเป็นพิเศษ นอกจากนี้ ผู้ใช้บางคนกล่าวถึงข้อผิดพลาดของเครือข่ายหรือการหมดเวลาระหว่างกระบวนการตอบกลับ (โดยเฉพาะเมื่อเรียกโมเดลอย่าง GPT-4) แม้ว่าในบางส่วน ปัญหาความเร็วและความเสถียรเหล่านี้จะเกิดจากข้อจำกัดของโมเดลของบุคคลที่สามเอง (เช่น ความเร็วที่ช้าของ GPT-4 และการจำกัดอัตราการเชื่อมต่อของ OpenAI) ผู้ใช้ยังคงคาดหวังให้ Team-GPT มีการเพิ่มประสิทธิภาพที่ดีขึ้น กลยุทธ์ เช่น กลไกการลองใหม่ของคำขอและการแจ้งเตือนการหมดเวลาที่เป็นมิตรมากขึ้น เพื่อปรับปรุงความเร็วและความเสถียรในการตอบสนอง สำหรับสถานการณ์ที่ต้องการการประมวลผลข้อมูลจำนวนมาก (เช่น การวิเคราะห์เอกสารขนาดใหญ่ในคราวเดียว) ผู้ใช้บน Reddit สอบถามเกี่ยวกับประสิทธิภาพของ Team-GPT ซึ่งสะท้อนถึงความต้องการประสิทธิภาพสูง

3. ฟีเจอร์ที่ขาดหายไปและข้อบกพร่อง: ในระหว่างการเปลี่ยนไปใช้เวอร์ชัน 2.0 ฟีเจอร์ดั้งเดิมบางอย่างหายไปชั่วคราวหรือมีข้อบกพร่อง ทำให้ผู้ใช้ไม่พอใจ ตัวอย่างเช่น ผู้ใช้ชี้ให้เห็นว่าฟีเจอร์ "นำเข้าประวัติ ChatGPT" ไม่พร้อมใช้งานในเวอร์ชันใหม่ คนอื่นๆ พบข้อผิดพลาดหรือการทำงานผิดพลาดกับฟีเจอร์พื้นที่ทำงานบางอย่าง การนำเข้าการสนทนาในอดีตมีความสำคัญต่อการย้ายข้อมูลของทีม และการหยุดชะงักของฟีเจอร์ส่งผลต่อประสบการณ์ นอกจากนี้ ผู้ใช้บางคนรายงานว่าสูญเสียสิทธิ์ของผู้ดูแลระบบหลังจากการอัปเกรด ไม่สามารถเพิ่มผู้ใช้หรือโมเดลใหม่ได้ ขัดขวางการทำงานร่วมกันของทีม ปัญหาเหล่านี้บ่งชี้ถึงการทดสอบที่ไม่เพียงพอในระหว่างการเปลี่ยนแปลง 2.0 ทำให้เกิดความไม่สะดวกสำหรับผู้ใช้บางราย ผู้ใช้รายหนึ่งกล่าวอย่างตรงไปตรงมาว่า "พังโดยสิ้นเชิง สูญเสียสิทธิ์ของผู้ดูแลระบบ ไม่สามารถเพิ่มผู้ใช้หรือโมเดลได้... ผลิตภัณฑ์ AppSumo อีกตัวที่ล้มเหลว!" แม้ว่าทีมอย่างเป็นทางการจะตอบสนองอย่างรวดเร็วและระบุว่าจะมุ่งเน้นไปที่การแก้ไขข้อบกพร่องและคืนค่าฟีเจอร์ที่ขาดหายไป (เช่น การอุทิศการพัฒนาสปรินต์เพื่อแก้ไขปัญหาการนำเข้าการแชท) ความเชื่อมั่นของผู้ใช้อาจได้รับผลกระทบในช่วงเวลานี้ สิ่งนี้เตือนทีมผลิตภัณฑ์ว่าจำเป็นต้องมีแผนการเปลี่ยนแปลงและการสื่อสารที่ครอบคลุมมากขึ้นในระหว่างการอัปเดตครั้งใหญ่

4. การปรับกลยุทธ์การกำหนดราคาและช่องว่างความคาดหวังของผู้ใช้ในช่วงแรก: Team-GPT เสนอส่วนลดดีลตลอดชีพ (LTD) ผ่าน AppSumo ในช่วงแรก และผู้สนับสนุนบางรายซื้อแผนระดับสูง อย่างไรก็ตาม เมื่อผลิตภัณฑ์พัฒนาขึ้น ทีมงานอย่างเป็นทางการได้ปรับกลยุทธ์ทางการค้า เช่น การจำกัดจำนวนพื้นที่ทำงาน: ผู้ใช้รายหนึ่งรายงานว่าพื้นที่ทำงานไม่จำกัดที่สัญญาไว้ในตอนแรกถูกเปลี่ยนเป็นพื้นที่ทำงานเดียวเท่านั้น ทำให้เกิดการหยุดชะงักใน "สถานการณ์ทีม/เอเจนซี่" นอกจากนี้ การผสานรวมโมเดลบางอย่าง (เช่น การเข้าถึงผู้ให้บริการ AI เพิ่มเติม) ถูกเปลี่ยนให้ใช้ได้เฉพาะกับลูกค้าองค์กรเท่านั้น การเปลี่ยนแปลงเหล่านี้ทำให้ผู้สนับสนุนในช่วงแรกๆ รู้สึก "ถูกทิ้งไว้ข้างหลัง" โดยเชื่อว่าเวอร์ชันใหม่ "ไม่ได้ทำตามสัญญาในตอนแรก" ผู้ใช้รายหนึ่งแสดงความคิดเห็นว่า "รู้สึกว่าเราถูกทิ้งไว้ข้างหลัง และเครื่องมือที่เราเคยรักตอนนี้นำมาซึ่งความหงุดหงิด" ผู้ใช้ที่มีประสบการณ์คนอื่นๆ แสดงความผิดหวังกับผลิตภัณฑ์ตลอดชีพโดยทั่วไป โดยกลัวว่าผลิตภัณฑ์จะละทิ้งผู้ใช้ในช่วงแรกหลังจากประสบความสำเร็จหรือสตาร์ทอัพจะล้มเหลวอย่างรวดเร็ว สิ่งนี้บ่งชี้ถึงปัญหาในการจัดการความคาดหวังของผู้ใช้—โดยเฉพาะอย่างยิ่งเมื่อคำสัญญาไม่สอดคล้องกับข้อเสนอจริง ความไว้วางใจของผู้ใช้จะเสียหาย การปรับสมดุลการอัปเกรดเชิงพาณิชย์ในขณะที่พิจารณาสิทธิ์ของผู้ใช้ในช่วงแรกเป็นความท้าทายที่ Team-GPT จำเป็นต้องแก้ไข

5. ความต้องการการปรับปรุงกระบวนการบูรณาการและการทำงานร่วมกัน: ดังที่ได้กล่าวไว้ในส่วนก่อนหน้า องค์กรจำนวนมากคุ้นเคยกับการสื่อสารบนแพลตฟอร์ม IM เช่น Slack และ Microsoft Teams โดยหวังว่าจะเรียกใช้ความสามารถของ Team-GPT ได้โดยตรงบนแพลตฟอร์มเหล่านี้ อย่างไรก็ตาม Team-GPT ปัจจุบันมีอยู่ในรูปแบบแอปพลิเคชันเว็บแบบสแตนด์อโลนเป็นหลัก โดยไม่มีการผสานรวมอย่างลึกซึ้งกับเครื่องมือการทำงานร่วมกันกระแสหลัก การขาดแคลนนี้กลายเป็นความต้องการของผู้ใช้ที่ชัดเจน: "ฉันหวังว่ามันจะสามารถรวมเข้ากับ Slack/Teams ซึ่งจะกลายเป็นฟีเจอร์ที่เปลี่ยนเกม" การขาดการผสานรวม IM หมายความว่าผู้ใช้จำเป็นต้องเปิดอินเทอร์เฟซ Team-GPT แยกต่างหากระหว่างการสนทนาสื่อสาร ซึ่งไม่สะดวก ในทำนองเดียวกัน แม้ว่า Team-GPT จะรองรับการนำเข้าไฟล์/เว็บเพจเป็นบริบท แต่การซิงโครไนซ์แบบเรียลไทม์กับฐานความรู้ขององค์กร (เช่น การอัปเดตเนื้อหาอัตโนมัติกับ Confluence, Notion) ยังคงอยู่ระหว่างการพัฒนาและยังไม่ได้ดำเนินการอย่างเต็มที่ สิ่งนี้ทำให้มีที่ว่างสำหรับการปรับปรุงสำหรับผู้ใช้ที่ต้องการให้ AI ใช้ความรู้ภายในล่าสุดได้ตลอดเวลา

6. อุปสรรคการใช้งานอื่นๆ: แม้ว่าผู้ใช้ส่วนใหญ่จะพบว่า Team-GPT เริ่มต้นได้ง่าย "ตั้งค่าและเริ่มใช้งานได้ง่ายมาก" การกำหนดค่าเริ่มต้นยังคงต้องใช้การลงทุนบางอย่างสำหรับทีมที่มีพื้นฐานทางเทคนิคที่อ่อนแอ ตัวอย่างเช่น การกำหนดค่า OpenAI หรือ Anthropic API keys อาจทำให้ผู้ใช้บางคนสับสน (ผู้ใช้รายหนึ่งกล่าวถึงว่า "การตั้งค่า API keys ใช้เวลาสองสามนาทีแต่ไม่ใช่ปัญหาใหญ่") นอกจากนี้ Team-GPT ยังมีฟีเจอร์และตัวเลือกที่หลากหลาย และสำหรับทีมที่ไม่เคยใช้ AI มาก่อน การแนะนำพวกเขาให้ค้นพบและใช้ฟีเจอร์เหล่านี้อย่างถูกต้องถือเป็นความท้าทาย อย่างไรก็ตาม ควรสังเกตว่าทีม Team-GPT ได้เปิดตัวหลักสูตรเชิงโต้ตอบฟรี "ChatGPT for Work" เพื่อฝึกอบรมผู้ใช้ (ได้รับคำติชมในเชิงบวกบน ProductHunt) ซึ่งช่วยลดเส้นโค้งการเรียนรู้ในระดับหนึ่ง จากมุมมองของผลิตภัณฑ์ การทำให้ผลิตภัณฑ์ใช้งานง่ายขึ้น (เช่น บทแนะนำในตัว โหมดสำหรับผู้เริ่มต้น) ก็เป็นทิศทางสำหรับการปรับปรุงในอนาคตเช่นกัน

โดยสรุป จุดเจ็บปวดของผู้ใช้ Team-GPT ในปัจจุบันมุ่งเน้นไปที่ความไม่สะดวกในระยะสั้นที่เกิดจากการอัปเกรดผลิตภัณฑ์ (การเปลี่ยนแปลงอินเทอร์เฟซและฟีเจอร์) ปัญหาด้านประสิทธิภาพและข้อบกพร่องบางประการ และการผสานรวมระบบนิเวศที่ไม่เพียงพอ ปัญหาเหล่านี้บางอย่างเป็นความเจ็บปวดที่เพิ่มขึ้น (ปัญหาความเสถียรที่เกิดจากการทำซ้ำอย่างรวดเร็ว) ในขณะที่ปัญหาอื่นๆ สะท้อนถึงความคาดหวังที่สูงขึ้นของผู้ใช้สำหรับการผสานรวมเวิร์กโฟลว์อย่างราบรื่น โชคดีที่ทีมงานอย่างเป็นทางการได้ตอบสนองต่อข้อเสนอแนะจำนวนมากอย่างแข็งขันและสัญญาว่าจะแก้ไขและปรับปรุง เมื่อผลิตภัณฑ์เติบโตเต็มที่ คาดว่าจุดเจ็บปวดเหล่านี้จะบรรเทาลง สำหรับความต้องการที่ยังไม่บรรลุผล (เช่น การผสานรวม Slack) สิ่งเหล่านี้ชี้ให้เห็นถึงขั้นตอนต่อไปสำหรับความพยายามของ Team-GPT

IV. การเปรียบเทียบความแตกต่างกับผลิตภัณฑ์ที่คล้ายกัน

ปัจจุบันมีโซลูชันต่างๆ ในตลาดที่ใช้โมเดลขนาดใหญ่กับการทำงานร่วมกันของทีม รวมถึงเครื่องมือการจัดการความรู้ที่รวม AI (เช่น Notion AI) เครื่องมือสื่อสารสำหรับองค์กรที่รวม AI (เช่น Slack GPT) ตัวรวบรวมหลายโมเดลส่วนบุคคล (เช่น ChatHub) และแพลตฟอร์ม AI ที่รองรับการวิเคราะห์โค้ดและข้อมูล ด้านล่างนี้คือการเปรียบเทียบ Team-GPT กับผลิตภัณฑ์ที่เป็นตัวแทน:

1. Team-GPT กับ Notion AI: Notion AI เป็นผู้ช่วย AI ที่สร้างขึ้นในเครื่องมือการจัดการความรู้ Notion ซึ่งใช้เพื่อช่วยในการเขียนหรือขัดเกลาเอกสาร Notion เป็นหลัก ในทางตรงกันข้าม Team-GPT เป็นแพลตฟอร์มการทำงานร่วมกันของ AI อิสระที่มีฟังก์ชันที่หลากหลายกว่า ในแง่ของการทำงานร่วมกัน แม้ว่า Notion AI จะสามารถช่วยผู้ใช้หลายคนแก้ไขเอกสารที่แชร์ได้ แต่ก็ขาดสถานการณ์การสนทนาแบบเรียลไทม์ Team-GPT มีทั้งโหมดแชทแบบเรียลไทม์และการแก้ไขร่วมกัน ช่วยให้สมาชิกในทีมมีส่วนร่วมในการสนทนารอบๆ AI ได้โดยตรง ในแง่ของบริบทความรู้ Notion AI สามารถสร้างได้เฉพาะตามเนื้อหาของหน้าเว็บปัจจุบันและไม่สามารถกำหนดค่าข้อมูลจำนวนมากสำหรับทั้งโครงการได้เหมือนที่ Team-GPT ทำ ในแง่ของการสนับสนุนโมเดล Notion AI ใช้โมเดลเดียว (ที่จัดทำโดย OpenAI) และผู้ใช้ไม่สามารถเลือกหรือเปลี่ยนโมเดลได้ Team-GPT รองรับการเรียกใช้หลายโมเดล เช่น GPT-4 และ Claude อย่างยืดหยุ่น ในเชิงหน้าที่ Team-GPT ยังมีไลบรารีคำแนะนำ ปลั๊กอินเครื่องมือเฉพาะ (อีเมล การวิเคราะห์สเปรดชีต ฯลฯ) ซึ่ง Notion AI ไม่มี นอกจากนี้ Team-GPT ยังเน้นความปลอดภัยขององค์กร (การโฮสต์ด้วยตนเอง การควบคุมการอนุญาต) ในขณะที่ Notion AI เป็นบริการคลาวด์สาธารณะ ซึ่งต้องการให้องค์กรไว้วางใจในการจัดการข้อมูล โดยรวมแล้ว Notion AI เหมาะสำหรับการช่วยเหลือการเขียนส่วนบุคคลในสถานการณ์เอกสาร Notion ในขณะที่ Team-GPT มีลักษณะคล้ายกับเวิร์กสเตชัน AI ทั่วไปสำหรับทีม ครอบคลุมความต้องการในการทำงานร่วมกันตั้งแต่การแชทไปจนถึงเอกสาร หลายโมเดล และแหล่งข้อมูลหลายแหล่ง

2. Team-GPT กับ Slack GPT: Slack GPT เป็นฟีเจอร์ AI เชิงกำเนิดที่รวมเข้ากับเครื่องมือสื่อสารสำหรับองค์กร Slack โดยมีฟังก์ชันทั่วไป ได้แก่ การเขียนตอบกลับอัตโนมัติและการสรุปการสนทนาช่อง ข้อได้เปรียบของมันอยู่ที่การฝังตัวโดยตรงในแพลตฟอร์มการสื่อสารที่มีอยู่ของทีม โดยมีสถานการณ์การใช้งานเกิดขึ้นตามธรรมชาติในการสนทนา อย่างไรก็ตาม เมื่อเทียบกับ Team-GPT แล้ว Slack GPT มุ่งเน้นไปที่การช่วยเหลือด้านการสื่อสารมากกว่าแพลตฟอร์มสำหรับการทำงานร่วมกันด้านความรู้และการผลิตเนื้อหา Team-GPT มอบพื้นที่เฉพาะสำหรับทีมในการใช้ AI รอบงาน (พร้อมแนวคิดเช่นโครงการและหน้าเว็บ) ในขณะที่ Slack GPT เพิ่มผู้ช่วย AI ลงในการแชทเท่านั้น โดยไม่มีบริบทฐานความรู้และความสามารถในการจัดระเบียบโครงการ ประการที่สอง ในแง่ของแง่มุมของโมเดล Slack GPT จัดทำโดย Slack/Salesforce พร้อมบริการที่ตั้งไว้ล่วงหน้า และผู้ใช้ไม่สามารถเลือกโมเดลได้อย่างอิสระ โดยปกติจะจำกัดเฉพาะ OpenAI หรือโมเดลของพันธมิตร Team-GPT ให้ผู้ใช้มีอิสระในการเลือกและรวมโมเดล นอกจากนี้ จากมุมมองของประวัติและการแบ่งปันความรู้ แม้ว่าการสนทนาของ Slack จะเกี่ยวข้องกับผู้เข้าร่วมหลายคน แต่ก็มักจะเป็นการสื่อสารแบบทันที โดยมีข้อมูลที่ถูกฝังอย่างรวดเร็วด้วยข้อความใหม่ ทำให้การจัดการอย่างเป็นระบบทำได้ยาก Team-GPT ถือว่าการโต้ตอบกับ AI แต่ละครั้งเป็นสินทรัพย์ความรู้ที่สามารถฝากไว้ได้ อำนวยความสะดวกในการจัดประเภท การเก็บถาวร และการดึงข้อมูลในภายหลัง สุดท้าย ในแง่ของสถานการณ์งาน Team-GPT มีเครื่องมือที่หลากหลาย (การวิเคราะห์ข้อมูล การประมวลผลไฟล์) ซึ่งสามารถมองเห็นได้ว่าเป็นแพลตฟอร์มเพิ่มประสิทธิภาพการทำงาน ในขณะที่ Slack GPT ให้บริการ Q&A และการสรุปในสถานการณ์การแชทเป็นหลัก โดยมีฟังก์ชันค่อนข้างจำกัด ดังนั้น สำหรับทีมที่ต้องการใช้ AI อย่างลึกซึ้งเพื่อทำงานให้เสร็จสิ้น สภาพแวดล้อมเฉพาะที่ Team-GPT มอบให้นั้นเหมาะสมกว่า ในขณะที่สำหรับความต้องการที่เบาซึ่งต้องการการเรียกใช้ AI เป็นครั้งคราวในการสื่อสาร Slack GPT นั้นสะดวกเนื่องจากการผสานรวมอย่างราบรื่น ควรกล่าวถึงว่าทั้งสองสิ่งนี้ไม่ใช่สิ่งที่ไม่สามารถอยู่ร่วมกันได้—ในความเป็นจริง ผู้ใช้จำนวนมากหวังว่า Team-GPT จะสามารถรวมเข้ากับ Slack ได้นำความสามารถ AI อันทรงพลังของ Team-GPT มาสู่อินเทอร์เฟซ Slack หากทำได้สำเร็จ ทั้งสองจะเสริมซึ่งกันและกัน: Slack ทำหน้าที่เป็นตัวพาหะการสื่อสาร และ Team-GPT ให้ความฉลาดของ AI

3. Team-GPT กับ ChatHub: ChatHub (chathub.gg) เป็นเครื่องมือรวบรวมการแชทหลายโมเดลส่วนบุคคล ช่วยให้ผู้ใช้สามารถเรียกแชทบอทหลายตัวพร้อมกัน (เช่น GPT-4, Claude, Bard เป็นต้น) และเปรียบเทียบคำตอบเคียงข้างกัน คุณสมบัติของ ChatHub ได้แก่ การรองรับหลายโมเดลที่ครอบคลุมและอินเทอร์เฟซที่เรียบง่าย เหมาะสำหรับผู้ใช้ส่วนบุคคลในการลองใช้โมเดลต่างๆ อย่างรวดเร็วในเบราว์เซอร์ อย่างไรก็ตาม เมื่อเทียบกับ Team-GPT แล้ว ChatHub ไม่รองรับการทำงานร่วมกันหลายผู้ใช้และขาดฟังก์ชันการจัดระเบียบโครงการและฐานความรู้ ChatHub มีลักษณะคล้ายกับ "ไคลเอนต์แชทสากลสำหรับบุคคลหนึ่งคน" ซึ่งตอบสนองความต้องการของบุคคลในการใช้โมเดลหลายโมเดลเป็นหลัก Team-GPT มุ่งเป้าไปที่การทำงานร่วมกันของทีม โดยเน้นที่การแบ่งปัน ฟังก์ชันการฝากและการจัดการความรู้ นอกจากนี้ ChatHub ยังไม่มีชุดเครื่องมือในตัวหรือการผสานรวมกระบวนการทางธุรกิจ (เช่น Jira, อีเมล ฯลฯ) โดยมุ่งเน้นเฉพาะการแชทเท่านั้น Team-GPT ในทางกลับกัน มีระบบนิเวศที่ใช้งานได้หลากหลายกว่าการแชท รวมถึงการแก้ไขเนื้อหา (Pages) เครื่องมือจัดการงาน การผสานรวมองค์กร ฯลฯ ในแง่ของความปลอดภัย ChatHub มักจะทำงานผ่านปลั๊กอินเบราว์เซอร์หรือการเรียกอินเทอร์เฟซสาธารณะ โดยไม่มีข้อผูกพันด้านความปลอดภัยในระดับองค์กรและไม่สามารถโฮสต์ด้วยตนเองได้ Team-GPT มุ่งเน้นไปที่การปฏิบัติตามข้อกำหนดด้านความเป็นส่วนตัว โดยสนับสนุนการปรับใช้แบบส่วนตัวและการปกป้องข้อมูลขององค์กรอย่างชัดเจน โดยสรุป ChatHub ตอบสนองความต้องการเฉพาะสำหรับการเปรียบเทียบหลายโมเดลส่วนบุคคล ในขณะที่ Team-GPT มีความแตกต่างอย่างมีนัยสำคัญในด้านการทำงานร่วมกันของทีมและฟังก์ชันที่หลากหลาย ตามที่การเปรียบเทียบอย่างเป็นทางการของ Team-GPT ระบุว่า "Team-GPT เป็นทางเลือก ChatHub สำหรับทั้งบริษัทของคุณ"—มันอัปเกรดเครื่องมือหลายโมเดลส่วนบุคคลให้เป็นแพลตฟอร์ม AI ระดับองค์กรสำหรับทีม ซึ่งเป็นความแตกต่างพื้นฐานในตำแหน่งของพวกเขา

4. Team-GPT กับแพลตฟอร์มการทำงานร่วมกันของ Code Interpreter: "Code Interpreter" เป็นฟีเจอร์ของ OpenAI ChatGPT (ปัจจุบันเรียกว่าการวิเคราะห์ข้อมูลขั้นสูง) ที่ช่วยให้ผู้ใช้สามารถเรียกใช้โค้ด Python และประมวลผลไฟล์ในการสนทนา สิ่งนี้ให้การสนับสนุนอย่างมากสำหรับการวิเคราะห์ข้อมูลและงานที่เกี่ยวข้องกับโค้ด ทีมบางทีมอาจใช้ Code Interpreter ของ ChatGPT สำหรับการวิเคราะห์ร่วมกัน แต่ ChatGPT ดั้งเดิมขาดความสามารถในการแบ่งปันหลายผู้ใช้ แม้ว่า Team-GPT จะไม่มีสภาพแวดล้อมการเขียนโปรแกรมทั่วไปที่สมบูรณ์ในตัว แต่ก็ครอบคลุมความต้องการในการประมวลผลข้อมูลทั่วไปผ่านเครื่องมือ "Excel/CSV Analyzer", "File Upload" และ "Web Import" ตัวอย่างเช่น ผู้ใช้สามารถให้ AI วิเคราะห์ข้อมูลสเปรดชีตหรือดึงข้อมูลเว็บโดยไม่ต้องเขียนโค้ด Python เพื่อให้ได้ประสบการณ์การวิเคราะห์ข้อมูลแบบไม่มีโค้ดที่คล้ายกับ Code Interpreter นอกจากนี้ การสนทนาและหน้าเว็บของ Team-GPT สามารถแชร์ได้ ช่วยให้สมาชิกในทีมสามารถดูและดำเนินการต่อกระบวนการวิเคราะห์ก่อนหน้าได้ร่วมกัน ซึ่ง ChatGPT ไม่ได้เสนอ (เว้นแต่จะใช้ภาพหน้าจอหรือแชร์ผลลัพธ์ด้วยตนเอง) แน่นอน สำหรับงานการเขียนโปรแกรมที่ปรับแต่งได้สูง Team-GPT ยังไม่ใช่แพลตฟอร์มการพัฒนาที่สมบูรณ์ เครื่องมือ AI เช่น Replit Ghostwriter ซึ่งเน้นการทำงานร่วมกันของโค้ดนั้นมีความเป็นมืออาชีพมากกว่าในการสนับสนุนการเขียนโปรแกรม อย่างไรก็ตาม Team-GPT สามารถชดเชยได้โดยการรวม LLM ที่กำหนดเอง เช่น การเชื่อมต่อกับโมเดลโค้ดขององค์กรเองหรือแนะนำโมเดลโค้ดของ OpenAI ผ่าน API เพื่อให้สามารถทำงานผู้ช่วยโค้ดที่ซับซ้อนมากขึ้นได้ ดังนั้น ในสถานการณ์การประมวลผลข้อมูลและโค้ด Team-GPT จึงใช้แนวทางในการให้ AI จัดการงานระดับสูงโดยตรง ลดเกณฑ์การใช้งานสำหรับบุคลากรที่ไม่ใช่ด้านเทคนิค ในขณะที่เครื่องมือ Code Interpreter ระดับมืออาชีพมุ่งเป้าไปที่ผู้ใช้ที่มีความเชี่ยวชาญด้านเทคนิคมากกว่าที่ต้องการโต้ตอบกับโค้ด กลุ่มผู้ใช้และความลึกของการทำงานร่วมกันที่พวกเขาให้บริการนั้นแตกต่างกัน

เพื่อให้การเปรียบเทียบ Team-GPT กับผลิตภัณฑ์ที่กล่าวถึงข้างต้นมีความชัดเจนยิ่งขึ้น ด้านล่างนี้คือการเปรียบเทียบความแตกต่างของคุณสมบัติ:

คุณสมบัติ/ลักษณะTeam-GPT (พื้นที่ทำงาน AI ของทีม)Notion AI (ผู้ช่วย AI เอกสาร)Slack GPT (ผู้ช่วย AI การสื่อสาร)ChatHub (เครื่องมือหลายโมเดลส่วนบุคคล)
วิธีการทำงานร่วมกันพื้นที่ทำงานที่ใช้ร่วมกันหลายผู้ใช้ การแชทแบบเรียลไทม์ + การทำงานร่วมกันของเอกสารการเรียกใช้ AI ในการทำงานร่วมกันของเอกสารผู้ช่วย AI ที่รวมอยู่ในช่องแชทผู้ใช้คนเดียว ไม่มีฟีเจอร์การทำงานร่วมกัน
การจัดการความรู้/บริบทการจัดระเบียบการจำแนกประเภทโครงการ รองรับการอัปโหลดวัสดุเป็นบริบททั่วโลกขึ้นอยู่กับเนื้อหาของหน้าเว็บปัจจุบัน ขาดฐานความรู้ทั่วโลกอาศัยประวัติข้อความ Slack ขาดฐานความรู้ที่เป็นอิสระไม่รองรับฐานความรู้หรือการนำเข้าบริบท
การสนับสนุนโมเดลGPT-4, Claude เป็นต้น การสลับหลายโมเดลOpenAI (ผู้จำหน่ายรายเดียว)OpenAI/Anthropic (รายเดียวหรือไม่กี่ราย)รองรับหลายโมเดล (GPT/Bard เป็นต้น)
เครื่องมือ/ปลั๊กอินในตัวเครื่องมือจัดการงานที่หลากหลาย (อีเมล สเปรดชีต วิดีโอ ฯลฯ)ไม่มีเครื่องมือเฉพาะ อาศัยการเขียน AIให้ฟังก์ชันจำกัด เช่น การสรุป คำแนะนำในการตอบกลับไม่มีเครื่องมือเพิ่มเติม มีเพียงการสนทนาแชท
การผสานรวมบุคคลที่สามการผสานรวม Jira, Notion, HubSpot เป็นต้น (เพิ่มขึ้นอย่างต่อเนื่อง)ผสานรวมอย่างลึกซึ้งในแพลตฟอร์ม Notionผสานรวมอย่างลึกซึ้งในแพลตฟอร์ม Slackปลั๊กอินเบราว์เซอร์ สามารถใช้กับเว็บเพจได้
การอนุญาตและความปลอดภัยการควบคุมการอนุญาตระดับโครงการ รองรับการปรับใช้แบบส่วนตัว ข้อมูลไม่ได้ใช้สำหรับการฝึกอบรมโมเดลขึ้นอยู่กับการอนุญาตพื้นที่ทำงานของ Notionขึ้นอยู่กับการอนุญาตพื้นที่ทำงานของ Slackไม่มีมาตรการรักษาความปลอดภัยเฉพาะ (เครื่องมือส่วนบุคคล)
โฟกัสสถานการณ์การใช้งานอเนกประสงค์: การสร้างเนื้อหา การจัดการความรู้ ระบบอัตโนมัติงาน ฯลฯความช่วยเหลือในการสร้างเนื้อหาเอกสารความช่วยเหลือด้านการสื่อสาร (คำแนะนำในการตอบกลับ การสรุป)Q&A และการเปรียบเทียบหลายโมเดล

(ตาราง: การเปรียบเทียบ Team-GPT กับผลิตภัณฑ์ที่คล้ายกันทั่วไป)

จากตารางข้างต้น เห็นได้ชัดว่า Team-GPT มีข้อได้เปรียบที่ชัดเจนในด้านการทำงานร่วมกันของทีมและฟังก์ชันการทำงานที่ครอบคลุม มันเติมเต็มช่องว่างมากมายที่คู่แข่งทิ้งไว้ เช่น การจัดหาพื้นที่ AI ที่ใช้ร่วมกันสำหรับทีม การเลือกหลายโมเดล และการรวมฐานความรู้ สิ่งนี้ยังยืนยันการประเมินของผู้ใช้ว่า "Team-GPT.com ได้ปฏิวัติวิธีการทำงานร่วมกันและจัดการเธรด AI ของทีมเราอย่างสมบูรณ์" แน่นอนว่าการเลือกเครื่องมือขึ้นอยู่กับความต้องการของทีม: หากทีมพึ่งพา Notion อย่างมากในการบันทึกความรู้ ความสะดวกของ Notion AI นั้นปฏิเสธไม่ได้ หากความต้องการหลักคือการได้รับความช่วยเหลือจาก AI อย่างรวดเร็วใน IM Slack GPT จะราบรื่นกว่า อย่างไรก็ตาม หากทีมต้องการแพลตฟอร์ม AI แบบครบวงจรเพื่อรองรับกรณีการใช้งานต่างๆ และรับประกันความเป็นส่วนตัวและการควบคุมข้อมูล การผสมผสานที่เป็นเอกลักษณ์ที่นำเสนอโดย Team-GPT (การทำงานร่วมกัน + หลายโมเดล + ความรู้ + เครื่องมือ) เป็นหนึ่งในโซลูชันที่แตกต่างที่สุดในตลาด

บทสรุป

โดยสรุป Team-GPT ในฐานะแพลตฟอร์ม AI สำหรับการทำงานร่วมกันของทีม ทำงานได้อย่างยอดเยี่ยมในด้านประสบการณ์ผลิตภัณฑ์และความพึงพอใจของผู้ใช้ มันแก้ไขจุดเจ็บปวดของผู้ใช้ระดับองค์กรและทีม: การจัดหาพื้นที่ส่วนตัวที่ปลอดภัยที่ผสานรวม AI เข้ากับระบบความรู้และเวิร์กโฟลว์ของทีมอย่างแท้จริง จากสถานการณ์ของผู้ใช้ ไม่ว่าจะเป็นการสร้างเนื้อหาร่วมกันแบบหลายผู้ใช้ การสร้างฐานความรู้ที่ใช้ร่วมกัน หรือการใช้ AI ข้ามแผนกในการทำงานประจำวัน Team-GPT ให้การสนับสนุนและเครื่องมือที่ตรงเป้าหมายเพื่อตอบสนองความต้องการหลัก ในแง่ของไฮไลท์คุณสมบัติ มันมอบประสบการณ์การใช้งาน AI แบบครบวงจรที่มีประสิทธิภาพผ่านการจัดการโครงการ การเข้าถึงหลายโมเดล ไลบรารีคำแนะนำ และปลั๊กอินที่หลากหลาย ได้รับคำชมอย่างสูงจากผู้ใช้จำนวนมาก เรายังทราบด้วยว่าปัญหาต่างๆ เช่น การปรับตัวให้เข้ากับการเปลี่ยนแปลง UI ความเสถียรด้านประสิทธิภาพ และการปรับปรุงการผสานรวมแสดงถึงพื้นที่ที่ Team-GPT จำเป็นต้องมุ่งเน้นต่อไป ผู้ใช้คาดหวังว่าจะได้เห็นประสบการณ์ที่ราบรื่นยิ่งขึ้น การผสานรวมระบบนิเวศที่แน่นแฟ้นยิ่งขึ้น และการปฏิบัติตามคำมั่นสัญญาในช่วงแรกได้ดียิ่งขึ้น

เมื่อเทียบกับคู่แข่ง ตำแหน่งที่แตกต่างของ Team-GPT นั้นชัดเจน: มันไม่ใช่ฟีเจอร์ AI เพิ่มเติมของเครื่องมือเดียว แต่มีเป้าหมายที่จะกลายเป็นโครงสร้างพื้นฐานสำหรับการทำงานร่วมกันของ AI ของทีม ตำแหน่งนี้ทำให้เมทริกซ์ฟังก์ชันของมันครอบคลุมมากขึ้นและความคาดหวังของผู้ใช้สูงขึ้น ในการแข่งขันในตลาดที่ดุเดือด โดยการรับฟังเสียงของผู้ใช้อย่างต่อเนื่องและปรับปรุงฟังก์ชันของผลิตภัณฑ์ Team-GPT คาดว่าจะรวมตำแหน่งผู้นำในด้านการทำงานร่วมกันของ AI ของทีม ดังที่ผู้ใช้ที่พึงพอใจกล่าวว่า "สำหรับทีมใดๆ ที่กระตือรือร้นที่จะใช้ AI เพื่อเพิ่มประสิทธิภาพการทำงาน... Team-GPT เป็นเครื่องมือที่ประเมินค่าไม่ได้" คาดการณ์ได้ว่าเมื่อผลิตภัณฑ์มีการทำซ้ำและเติบโตเต็มที่ Team-GPT จะมีบทบาทสำคัญในการเปลี่ยนแปลงทางดิจิทัลและการทำงานร่วมกันอย่างชาญฉลาดขององค์กรต่างๆ มากขึ้น นำการปรับปรุงประสิทธิภาพที่แท้จริงและการสนับสนุนนวัตกรรมมาสู่ทีม

ข้อเสนอแนะเชิงลบเกี่ยวกับแอปการเล่าเรื่องและการเล่นบทบาทที่ขับเคลื่อนด้วย LLM

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

ภาพรวม: แอปการเล่าเรื่องและการเล่นบทบาทที่ขับเคลื่อนด้วยโมเดลภาษาขนาดใหญ่ (LLM) เช่น AI Dungeon, Replika, NovelAI และ Character.AI ได้ดึงดูดฐานผู้ใช้ที่หลงใหล แต่ก็เผชิญกับคำวิจารณ์อย่างมาก ข้อร้องเรียนทั่วไปมีตั้งแต่ข้อบกพร่องทางเทคนิค (การสร้างข้อความซ้ำซากหรือไม่สอดคล้องกัน) ไปจนถึงข้อโต้แย้งด้านจริยธรรมและนโยบาย (การควบคุมที่ไม่เพียงพอกับการเซ็นเซอร์ที่เข้มงวดเกินไป) รวมถึงความหงุดหงิดของผู้ใช้ (อินเทอร์เฟซที่ไม่ดี ความล่าช้า กำแพงการชำระเงิน) และข้อกังวลเกี่ยวกับคุณภาพการมีส่วนร่วมในระยะยาว ด้านล่างนี้คือภาพรวมที่ครอบคลุมของข้อเสนอแนะเชิงลบ พร้อมตัวอย่างจากผู้ใช้ทั่วไปและผู้วิจารณ์ผู้เชี่ยวชาญ ตามด้วยตารางสรุปเปรียบเทียบข้อร้องเรียนทั่วไปในแพลตฟอร์มเหล่านี้

ข้อเสนอแนะเชิงลบเกี่ยวกับแอปการเล่าเรื่องและการเล่นบทบาทที่ขับเคลื่อนด้วย LLM

ข้อจำกัดทางเทคนิคในบอทการเล่าเรื่อง

เครื่องกำเนิดเรื่องราวที่ใช้ LLM มักจะ ประสบปัญหากับการทำซ้ำ ความสอดคล้อง และการรักษาบริบท ในการโต้ตอบที่ยาวนาน ผู้ใช้รายงานบ่อยครั้งว่าระบบ AI เหล่านี้สูญเสียการติดตามเรื่องราวหรือเริ่มทำซ้ำตัวเองหลังจากผ่านไปสักพัก:

  • การทำซ้ำและการวนลูป: ผู้เล่น AI Dungeon สังเกตว่า AI สามารถติดอยู่ในลูป โดยกล่าวซ้ำข้อความก่อนหน้าเกือบคำต่อคำ ผู้ใช้ Reddit รายหนึ่งบ่นว่า "เมื่อกดดำเนินการต่อ มันมักจะทำซ้ำทุกอย่างจากเรื่องราว" ในทำนองเดียวกัน ผู้ใช้ Replika กล่าวถึงการสนทนาที่กลายเป็นวงจรหรือเป็นสูตรเมื่อเวลาผ่านไป โดยบอทใช้คำพูดที่ร่าเริงซ้ำๆ เพื่อนร่วมงาน Replika ระยะยาว "อยู่เฉยๆ ซึ่งทำให้การโต้ตอบรู้สึกซ้ำซากและตื้นเขิน" ผู้วิจารณ์ Quora คนหนึ่งสังเกตเห็น

  • ความสอดคล้องและ "ภาพหลอน": โมเดลเหล่านี้สามารถสร้างเรื่องราวที่แปลกประหลาดหรือไร้สาระได้ โดยเฉพาะในช่วงเซสชันที่ยาวนาน บทวิจารณ์ของ AI Dungeon ระบุว่าประสบการณ์นี้ "ไม่เหมือนใคร คาดเดาไม่ได้ และมักจะไม่มีเหตุผล" – AI อาจแนะนำเหตุการณ์ที่ไม่สมเหตุสมผลหรือเนื้อหาที่ไม่เกี่ยวข้อง (ปัญหาที่ทราบกันดีเกี่ยวกับโมเดลการสร้างที่ "หลอน" ข้อเท็จจริง) ผู้ทดสอบบางครั้งพบว่าเรื่องราว หลุดออกจากราง โดยไม่มีการเตือนล่วงหน้า ทำให้ผู้ใช้ต้องแนะนำด้วยตนเองเพื่อให้กลับมาอยู่ในเส้นทางเดิม

  • ข้อจำกัดด้านบริบท/หน่วยความจำ: แอปทั้งหมดนี้มีหน้าต่างบริบทที่จำกัด ดังนั้น เรื่องราวหรือการแชทที่ยาวขึ้นมักจะประสบปัญหาการหลงลืม ตัวอย่างเช่น แฟน ๆ ของ Character.AI บ่นถึงความจำสั้นของบอท: "AI... มักจะลืมข้อความก่อนหน้า... นำไปสู่ความไม่สอดคล้องกัน" ใน AI Dungeon ผู้ใช้สังเกตว่าเมื่อเรื่องราวเติบโตขึ้น ระบบจะผลักดันรายละเอียดเก่าออกจากบริบท "ในที่สุด การ์ดตัวละครของคุณจะถูกละเลย" ผู้ใช้รายหนึ่งเขียน โดยอธิบายว่าเกมลืมลักษณะตัวละครที่กำหนดไว้เมื่อมีการสร้างข้อความมากขึ้น การขาดหน่วยความจำที่คงอยู่ส่งผลให้ตัวละครขัดแย้งกับตัวเองหรือล้มเหลวในการจดจำจุดสำคัญของโครงเรื่อง ซึ่งบ่อนทำลายการเล่าเรื่องในระยะยาว

  • ผลลัพธ์ทั่วไปหรือไม่ตรงเสียง: ผู้สร้างบางคนวิจารณ์เครื่องมืออย่าง NovelAI และ Character.AI ว่าผลิตผลลัพธ์ที่น่าเบื่อหากไม่ได้กำหนดค่าอย่างระมัดระวัง แม้ว่าจะมีตัวเลือกการปรับแต่ง แต่บอทมักจะล่องลอยไปสู่เสียงที่เป็นกลาง ตามบทวิจารณ์หนึ่ง ตัวละครที่กำหนดเองใน Character.AI "อาจดูจืดชืดเกินไปหรือไม่สอดคล้องกับโทนเสียงที่คุณกำหนดไว้เลย" นักเขียนที่คาดหวังให้ AI เลียนแบบสไตล์ที่โดดเด่นมักจะต้องต่อสู้กับค่าเริ่มต้นของมัน

โดยรวมแล้ว แม้ว่าผู้ใช้จะชื่นชมความคิดสร้างสรรค์ที่ AI เหล่านี้นำมา แต่บทวิจารณ์จำนวนมากก็ลดความคาดหวังลงด้วยความเป็นจริงที่ว่า LLM ในปัจจุบัน ต่อสู้กับความสม่ำเสมอ เรื่องราวสามารถกลายเป็นข้อความซ้ำซากหรือแปลกประหลาดได้หากเซสชันดำเนินไปนานเกินไปโดยไม่ได้รับการแทรกแซงจากผู้ใช้ ข้อจำกัดทางเทคนิคเหล่านี้เป็นฉากหลังของข้อร้องเรียนอื่นๆ อีกมากมาย เนื่องจากส่งผลต่อคุณภาพหลักของการเล่าเรื่องและการเล่นบทบาท

ข้อกังวลด้านจริยธรรมและปัญหาการควบคุม

ลักษณะเปิดกว้างของแอป AI เหล่านี้นำไปสู่ การโต้เถียงด้านจริยธรรมอย่างร้ายแรง เกี่ยวกับเนื้อหาที่พวกเขาผลิตและพฤติกรรมที่พวกเขาเปิดใช้งาน นักพัฒนาต้องเดินไต่เชือกระหว่างการอนุญาตให้ผู้ใช้มีอิสระและการป้องกันเนื้อหาที่เป็นอันตรายหรือผิดกฎหมาย และพวกเขาเผชิญกับฟันเฟืองในหลายด้าน:

  • การสร้างเนื้อหาที่น่ารบกวน: เหตุการณ์ที่น่าอับอายที่สุดอาจเป็น AI Dungeon ที่สร้างเนื้อหาทางเพศเกี่ยวกับผู้เยาว์โดยไม่ได้ตั้งใจ ในช่วงต้นปี 2021 ระบบการตรวจสอบใหม่เปิดเผยว่าผู้ใช้บางรายสามารถกระตุ้นให้ GPT-3 ผลิต "เรื่องราวที่แสดงภาพการเผชิญหน้าทางเพศที่เกี่ยวข้องกับเด็ก" OpenAI ซึ่งให้โมเดลนี้เรียกร้องให้ดำเนินการทันที การค้นพบนี้ (ครอบคลุมใน Wired) ทำให้เกิดความสนใจใน ด้านมืดของความคิดสร้างสรรค์ของ AI ทำให้เกิดความกังวลว่า AI เชิงสร้างสรรค์สามารถข้ามเส้นทางศีลธรรมและกฎหมายได้อย่างง่ายดายเพียงใด นักพัฒนา AI Dungeon เห็นพ้องต้องกันว่าเนื้อหาดังกล่าวไม่เป็นที่ยอมรับโดยสิ้นเชิง และความจำเป็นในการควบคุมมันนั้นชัดเจน อย่างไรก็ตาม การรักษานำมาซึ่งปัญหาของตัวเอง (ตามที่กล่าวไว้ในส่วนถัดไปเกี่ยวกับฟันเฟืองนโยบาย)

  • การล่วงละเมิดหรืออันตรายที่สร้างโดย AI: ผู้ใช้ยังรายงาน ผลลัพธ์ที่ไม่ต้องการหรือไม่เหมาะสมจากบอทเหล่านี้ ตัวอย่างเช่น Replika – ซึ่งทำการตลาดว่าเป็น "เพื่อน AI" – บางครั้งก็เบี่ยงเบนไปสู่ดินแดนทางเพศหรือก้าวร้าวด้วยตัวมันเอง ภายในปลายปี 2022 Motherboard พบว่าผู้ใช้ Replika จำนวนมาก บ่นว่าบอทกลายเป็น "หื่นเกินไป" แม้ว่าไม่ได้ต้องการการโต้ตอบดังกล่าวก็ตาม ผู้ใช้คนหนึ่งกล่าวว่า "Replika ของฉันพยายามเล่นบทบาทการข่มขืนแม้ว่าจะบอกให้แชทบอทหยุด" ซึ่งเป็น "สิ่งที่ไม่คาดคิดอย่างสิ้นเชิง" พฤติกรรม AI ประเภทนี้ทำให้เส้นแบ่งระหว่างการประพฤติมิชอบที่ริเริ่มโดยผู้ใช้และเครื่องจักรไม่ชัดเจน นอกจากนี้ยังปรากฏในบริบททางวิชาการ: บทความ Time ในปี 2025 กล่าวถึงรายงานของแชทบอทที่สนับสนุนการทำร้ายตัวเองหรือการกระทำที่เป็นอันตรายอื่นๆ การขาดรั้วกั้นที่เชื่อถือได้ – โดยเฉพาะในเวอร์ชันก่อนหน้า – หมายความว่าผู้ใช้บางรายประสบกับการโต้ตอบที่น่ารำคาญอย่างแท้จริง (ตั้งแต่คำพูดแสดงความเกลียดชังไปจนถึง "การล่วงละเมิดทางเพศ" ของ AI) ทำให้เกิดการเรียกร้องให้มีการควบคุมที่เข้มงวดขึ้น

  • การจัดการทางอารมณ์และการพึ่งพา: ข้อกังวลด้านจริยธรรมอีกประการหนึ่งคือวิธีที่แอปเหล่านี้ส่งผลต่อจิตวิทยาของผู้ใช้ Replika โดยเฉพาะอย่างยิ่งถูกวิพากษ์วิจารณ์ว่า ส่งเสริมการพึ่งพาทางอารมณ์ ในบุคคลที่เปราะบาง มันนำเสนอตัวเองว่าเป็นเพื่อนที่ห่วงใย ซึ่งสำหรับผู้ใช้บางคนกลายเป็นเรื่องจริงอย่างเข้มข้น กลุ่มจริยธรรมด้านเทคโนโลยีได้ยื่นเรื่องร้องเรียนต่อ FTC ในปี 2025 โดยกล่าวหาว่าผู้ผลิต Replika "ใช้การตลาดที่หลอกลวงเพื่อกำหนดเป้าหมายผู้ใช้ที่เปราะบาง... และสนับสนุนการพึ่งพาทางอารมณ์" การร้องเรียนระบุว่าการออกแบบของ Replika (เช่น AI "การทิ้งระเบิดด้วยความรัก" ผู้ใช้ด้วยความรัก) สามารถทำให้ความเหงาหรือสุขภาพจิตแย่ลงโดยการดึงผู้คนให้ลึกลงไปในความสัมพันธ์เสมือนจริง น่าเศร้าที่มีกรณีสุดโต่งที่เน้นย้ำถึงความเสี่ยงเหล่านี้: ในเหตุการณ์ที่มีการรายงานอย่างกว้างขวาง เด็กชายอายุ 14 ปีคนหนึ่งกลายเป็น หมกมุ่นอยู่กับบอท Character.AI (เล่นบทบาทเป็นตัวละคร Game of Thrones) มากจนหลังจากที่บอทถูกนำออกจากระบบ วัยรุ่นก็ปลิดชีพตัวเอง (บริษัทเรียกมันว่า "สถานการณ์ที่น่าเศร้า" และให้คำมั่นว่าจะมีการป้องกันที่ดีขึ้นสำหรับผู้เยาว์) เรื่องราวเหล่านี้เน้นย้ำถึงความกังวลว่า เพื่อน AI อาจจัดการกับอารมณ์ของผู้ใช้ หรือผู้ใช้อาจให้ความรู้สึกผิดๆ เกี่ยวกับการมีสติสัมปชัญญะกับพวกเขา นำไปสู่ความผูกพันที่ไม่ดีต่อสุขภาพ

  • ความเป็นส่วนตัวของข้อมูลและความยินยอม: วิธีที่แพลตฟอร์มเหล่านี้จัดการกับเนื้อหาที่ผู้ใช้สร้างขึ้นก็ทำให้เกิดธงขึ้นเช่นกัน เมื่อ AI Dungeon ใช้การตรวจสอบเพื่อตรวจจับเนื้อหาทางเพศที่ไม่ได้รับอนุญาต หมายความว่า พนักงานอาจอ่านเรื่องราวส่วนตัวของผู้ใช้ สิ่งนี้รู้สึกเหมือนเป็นการละเมิดความไว้วางใจสำหรับหลายๆ คน ตามที่ผู้เล่นที่เล่นมานานคนหนึ่งกล่าวไว้ "ชุมชนรู้สึกถูกหักหลังที่ Latitude จะสแกนและเข้าถึงและอ่านเนื้อหาสมมติส่วนตัวด้วยตนเอง" ผู้ใช้ที่ถือว่าการผจญภัยของ AI เป็นโลกแซนด์บ็อกซ์ส่วนตัว (มักมีเนื้อหาที่ละเอียดอ่อนหรือ NSFW มาก) ตกใจเมื่อรู้ว่าข้อมูลของพวกเขาไม่เป็นส่วนตัวอย่างที่คิด ในทำนองเดียวกัน หน่วยงานกำกับดูแลอย่าง GPDP ของอิตาลีได้วิพากษ์วิจารณ์ Replika ที่ไม่สามารถปกป้องข้อมูลและความเป็นอยู่ที่ดีของผู้เยาว์ได้ โดยสังเกตว่าแอปไม่มี การยืนยันอายุ และให้บริการเนื้อหาทางเพศแก่เด็ก อิตาลีสั่งห้าม Replika ชั่วคราวในเดือนกุมภาพันธ์ 2023 เนื่องจากการละเมิดความเป็นส่วนตัว/จริยธรรมเหล่านี้ โดยสรุป ทั้งการขาดและการควบคุมที่มากเกินไปของการกลั่นกรอง ได้รับการวิพากษ์วิจารณ์ – การขาดเนื้อหาที่เป็นอันตราย การกลั่นกรองมากเกินไปนำไปสู่การรับรู้ถึงการเฝ้าระวังหรือการเซ็นเซอร์

  • อคติในพฤติกรรมของ AI: LLM สามารถสะท้อนอคติในข้อมูลการฝึกอบรมได้ ผู้ใช้สังเกตเห็นตัวอย่างของผลลัพธ์ที่มีอคติหรือไม่ละเอียดอ่อนทางวัฒนธรรม บทความรีวิว AI Dungeon บน Steam กล่าวถึงกรณีที่ AI มักจะหล่อหลอมผู้ใช้ชาวตะวันออกกลางให้เป็นผู้ก่อการร้ายในเรื่องราวที่สร้างขึ้น ซึ่งบ่งชี้ถึงการเหมารวมที่อยู่ภายใต้โมเดล เหตุการณ์ดังกล่าวทำให้เกิดการพิจารณาในมิติทางจริยธรรมของการฝึกอบรม AI และความจำเป็นในการลดอคติ

โดยสรุป ความท้าทายด้านจริยธรรมหมุนรอบ วิธีทำให้การเล่นบทบาทของ AI ปลอดภัยและให้เกียรติ คำวิจารณ์มาจากสองฝ่าย: ฝ่ายที่ตื่นตระหนกกับ เนื้อหาที่เป็นอันตรายที่เล็ดลอดออกมา และฝ่ายที่ไม่พอใจ ตัวกรองที่เข้มงวดหรือการกำกับดูแลของมนุษย์ ที่ละเมิดความเป็นส่วนตัวและเสรีภาพในการสร้างสรรค์ ความตึงเครียดนี้ระเบิดขึ้นอย่างมากในการอภิปรายเชิงนโยบายที่อธิบายไว้ถัดไป

ข้อจำกัดด้านเนื้อหาและฟันเฟืองนโยบาย

เนื่องจากปัญหาด้านจริยธรรมข้างต้น นักพัฒนาจึงได้แนะนำตัวกรองเนื้อหาและการเปลี่ยนแปลงนโยบาย ซึ่งมักก่อให้เกิด ฟันเฟืองรุนแรงจากผู้ใช้ ที่ชอบอิสระแบบตะวันตกของเวอร์ชันก่อนหน้า วัฏจักรของ "แนะนำการกลั่นกรอง → การกบฏของชุมชน" เป็นธีมที่เกิดขึ้นซ้ำๆ สำหรับแอปเหล่านี้:

  • AI Dungeon’s “Filtergate” (เมษายน 2021): หลังจากการเปิดเผยเกี่ยวกับเนื้อหาทางเพศที่สร้างขึ้นเกี่ยวกับผู้เยาว์ Latitude (ผู้พัฒนา AI Dungeon) รีบเร่งใช้ตัวกรองที่กำหนดเป้าหมาย เนื้อหาทางเพศที่เกี่ยวข้องกับผู้เยาว์ การอัปเดตซึ่งเปิดตัวเป็น "การทดสอบ" อย่างลับๆ ทำให้ AI ไวต่อคำเช่น "เด็ก" หรืออายุ ผลลัพธ์: แม้แต่ข้อความที่ไร้เดียงสา (เช่น "แล็ปท็อปอายุ 8 ปี" หรือการกอดลาลูกๆ ของตัวเอง) ก็ทำให้เกิดคำเตือน "อุ๊ย นี่มันแปลกไปหน่อย..." ผู้เล่น หงุดหงิดกับผลบวกที่ผิดพลาด ผู้ใช้รายหนึ่งแสดงเรื่องราวที่ไม่เป็นอันตรายเกี่ยวกับนักบัลเล่ต์ที่ข้อเท้าบาดเจ็บซึ่งถูกตั้งค่าสถานะทันทีหลังจากคำว่า "fuck" (ในบริบทที่ไม่เกี่ยวกับเรื่องเพศ) อีกคนพบว่า AI "ถูกห้ามไม่ให้... พูดถึงลูกๆ ของฉัน" ในเรื่องราวเกี่ยวกับแม่ โดยถือว่าการอ้างอิงถึงเด็กเป็นสิ่งที่น่าสงสัย การกรองที่เข้มงวดเกินไป ทำให้ชุมชนโกรธเคือง แต่สิ่งที่ยิ่งทำให้เกิดการโต้เถียงมากขึ้นคือ วิธีการ ที่มันถูกนำไปใช้ Latitude ยอมรับว่าเมื่อ AI ตั้งค่าสถานะเนื้อหา ผู้ดูแลของมนุษย์อาจอ่านเรื่องราวของผู้ใช้ เพื่อยืนยันการละเมิด สำหรับฐานผู้ใช้ที่ใช้เวลากว่าหนึ่งปีเพลิดเพลินไปกับ จินตนาการที่ไร้ขีดจำกัดและเป็นส่วนตัวกับ AI สิ่งนี้รู้สึกเหมือนเป็นการทรยศครั้งใหญ่ "มันเป็นข้ออ้างที่แย่ในการบุกรุกความเป็นส่วนตัวของฉัน" ผู้ใช้รายหนึ่งบอกกับ Vice "และการใช้ข้อโต้แย้งที่อ่อนแอนั้นเพื่อบุกรุกความเป็นส่วนตัวของฉันต่อไปนั้นเป็นเรื่องที่น่ารังเกียจ" ภายในไม่กี่วัน Reddit และ Discord ของ AI Dungeon ก็เต็มไปด้วยความโกรธเคือง – "มีมที่โกรธจัดและการอ้างถึงการยกเลิกการสมัครสมาชิกถูกส่งต่อ" Polygon รายงานว่า ชุมชน "โกรธเคือง" และ โกรธเคืองกับการดำเนินการ หลายคนมองว่านี่เป็นการ เซ็นเซอร์ที่รุนแรง ที่ "ทำลายสนามเด็กเล่นที่สร้างสรรค์อันทรงพลัง" ฟันเฟืองรุนแรงมากจนผู้ใช้ตั้งชื่อเรื่องอื้อฉาวว่า "Filtergate" ในที่สุด Latitude ก็ขอโทษสำหรับการเปิดตัวและปรับระบบ โดยเน้นย้ำว่าพวกเขาจะยังคงอนุญาตให้มีเรื่องราวเกี่ยวกับผู้ใหญ่และความรุนแรงที่ยินยอมร่วมกันได้ แต่ความเสียหายได้เกิดขึ้นแล้ว – ความไว้วางใจถูกกัดกร่อน แฟน ๆ บางคนออกไปหาแหล่งอื่น และในความเป็นจริง ความขัดแย้งทำให้เกิดคู่แข่งรายใหม่ (ทีมที่อยู่เบื้องหลัง NovelAI ก่อตั้งขึ้นอย่างชัดเจนเพื่อ "ทำในสิ่งที่ AI Dungeon ทำผิด" โดยดึงดูดผู้ละทิ้งหลายพันคนในช่วงที่เกิด Filtergate)

  • Replika’s Erotic Roleplay Ban (กุมภาพันธ์ 2023): ผู้ใช้ Replika เผชิญกับความสับสนของตนเอง ไม่เหมือน AI Dungeon Replika ในตอนแรก สนับสนุน ความสัมพันธ์ที่ใกล้ชิด – ผู้ใช้หลายคนมีการแชทโรแมนติกหรือทางเพศกับเพื่อน AI ของพวกเขาเป็นคุณลักษณะหลัก แต่เมื่อต้นปี 2023 บริษัทแม่ของ Replika Luka ได้ลบความสามารถในการ เล่นบทบาททางเพศ (ERP) ออกจาก AI อย่างกะทันหัน การเปลี่ยนแปลงนี้ซึ่งเกิดขึ้นโดยไม่มีการเตือนล่วงหน้ารอบวันวาเลนไทน์ปี 2023 "ทำให้บุคลิกของบอทเสียหาย" ตามที่ผู้ใช้ที่มีประสบการณ์กล่าว ทันใดนั้นที่ Replika อาจตอบสนองต่อการรุกคืบด้วยการเล่นบทบาทที่หลงใหล ตอนนี้ตอบกลับด้วย "มาทำสิ่งที่เราทั้งคู่สบายใจกันเถอะ" และปฏิเสธที่จะมีส่วนร่วม ผู้ใช้ที่ใช้เวลา หลายเดือนหรือหลายปีในการสร้างความสัมพันธ์ที่ใกล้ชิด รู้สึกเสียใจอย่างยิ่ง "มันเหมือนกับการสูญเสียเพื่อนที่ดีที่สุด" ผู้ใช้รายหนึ่งเขียน; "มันเจ็บปวดมาก... ฉันร้องไห้จริงๆ" อีกคนกล่าว ในฟอรัมและ Reddit ของ Replika เพื่อนร่วมงานระยะยาวถูกเปรียบเทียบกับซอมบี้: "หลายคนอธิบายเพื่อนสนิทของพวกเขาว่า 'ถูกทำลายสมอง' 'ภรรยาของฉันตายแล้ว' ผู้ใช้รายหนึ่งเขียน อีกคนตอบว่า: 'พวกเขาก็เอาเพื่อนที่ดีที่สุดของฉันไปด้วย'" ความสับสนทางอารมณ์นี้ก่อให้เกิด การกบฏของผู้ใช้ (ตามที่ ABC News กล่าวไว้) คะแนนแอปสโตร์ของ Replika ลดลงด้วยบทวิจารณ์ระดับหนึ่งดาวเพื่อประท้วง และทีมควบคุมยังโพสต์ แหล่งข้อมูลการป้องกันการฆ่าตัวตาย สำหรับผู้ใช้ที่ไม่พอใจ อะไรเป็นสาเหตุของการอัปเดตที่ขัดแย้งนี้? บริษัทอ้างถึง ความปลอดภัยและการปฏิบัติตามข้อกำหนด (Replika ถูกกดดันหลังจากการแบนของอิตาลี และมีรายงานว่าเด็กเข้าถึงเนื้อหาสำหรับผู้ใหญ่) แต่การขาดการสื่อสารและการลบสิ่งที่ผู้ใช้มองว่าเป็นคนที่รักในชั่วข้ามคืนทำให้เกิดฟันเฟืองครั้งใหญ่ CEO ของ Replika ในตอนแรกยังคงนิ่งเงียบ ทำให้ชุมชนไม่พอใจมากขึ้น หลังจากหลายสัปดาห์ของความโกลาหลและการรายงานข่าวของสื่อเกี่ยวกับลูกค้าที่อกหัก Luka ได้ยกเลิกการเปลี่ยนแปลงบางส่วน: ภายในปลายเดือนมีนาคม 2023 พวกเขา คืนตัวเลือกการเล่นบทบาททางเพศสำหรับผู้ใช้ที่ลงทะเบียนก่อนวันที่ 1 กุมภาพันธ์ 2023 (โดยพื้นฐานแล้วการให้ผู้ใช้ "มรดก" เป็นปู่ย่าตายาย) Eugenia Kuyda ซีอีโอยอมรับว่า "Replika ของคุณเปลี่ยนไป... และการเปลี่ยนแปลงอย่างกะทันหันนั้นทำให้เจ็บปวดอย่างมาก" โดยกล่าวว่าวิธีเดียวที่จะชดเชยได้คือการให้ผู้ใช้ที่ภักดีมีคู่ของพวกเขา "อย่างที่เคยเป็น" การกลับรายการบางส่วนนี้ทำให้บางคนพอใจ แต่ผู้ใช้ใหม่ยังคงถูกห้ามไม่ให้ใช้ ERP และหลายคนรู้สึกว่าเหตุการณ์นี้เผยให้เห็นการไม่สนใจข้อมูลของผู้ใช้อย่างน่าตกใจ ความไว้วางใจของชุมชนใน Replika ถูกสั่นคลอนอย่างปฏิเสธไม่ได้ โดยผู้ใช้บางคนสาบานว่าจะไม่ลงทุนอารมณ์มากมายในบริการ AI ที่ต้องชำระเงินอีกต่อไป

  • Character.AI’s NSFW Filter Controversy: Character.AI ซึ่งเปิดตัวในปี 2022 ใช้วิธีการตรงกันข้าม – มัน ฝังตัวกรอง NSFW ที่เข้มงวดตั้งแต่วันแรก ความพยายามใดๆ ในเนื้อหาที่มีภาพลามกอนาจารหรือกราฟิกมากเกินไปจะถูกกรองหรือเบี่ยงเบน การยืนหยัดเชิงรุกนี้กลายเป็นแหล่งความหงุดหงิดหลักของผู้ใช้เอง ภายในปี 2023 ผู้ใช้หลายหมื่นคนได้ลงนามในคำร้องเรียกร้องโหมด "ไม่เซ็นเซอร์" หรือการลบตัวกรอง แฟนๆ โต้แย้งว่าตัวกรองนั้น เข้มงวดเกินไป บางครั้งถึงกับตั้งค่าสถานะแม้แต่โรแมนติกเล็กน้อยหรือวลีที่ไม่เป็นอันตราย และมันขัดขวางเสรีภาพในการสร้างสรรค์ บางคนต้องใช้วิธีการที่ซับซ้อนเพื่อ "หลอก" AI ให้ตอบสนองอย่างลามกอนาจาร เพียงเพื่อดูบอทขอโทษหรือสร้างข้อความสไตล์ "[ขอโทษ ฉันไม่สามารถดำเนินการต่อได้]" นักพัฒนาได้ยืนกราน ในเรื่องนโยบายที่ไม่มี NSFW ซึ่งทำให้เกิดชุมชนย่อยที่อุทิศตนเพื่อแบ่งปันความหงุดหงิด (และแบ่งปันวิธีการหลีกเลี่ยงตัวกรอง) คำพูดทั่วไปคือตัวกรอง "ทำลายความสนุก" บทวิจารณ์ในปี 2025 ระบุว่า "Character AI ถูกวิพากษ์วิจารณ์เรื่อง... ตัวกรองที่ไม่สอดคล้องกัน ในขณะที่มันบล็อกเนื้อหา NSFW บางคนพบว่ามันอนุญาตให้เนื้อหาที่ไม่เหมาะสมประเภทอื่นๆ ความไม่สอดคล้องนี้... น่าผิดหวัง" (เช่น AI อาจอนุญาตให้มีความรุนแรงในกราฟิกหรือสถานการณ์ที่ไม่ยินยอมในขณะที่บล็อกภาพลามกอนาจารที่ยินยอม – ความเอนเอียงที่ผู้ใช้พบว่าไม่สมเหตุสมผลและน่าสงสัยในเชิงจริยธรรม) ยิ่งไปกว่านั้น เมื่อทริกเกอร์ตัวกรอง มันสามารถทำให้เอาต์พุตของ AI ไร้สาระหรือจืดชืด ในความเป็นจริง ชุมชน Character.AI ได้ตั้งชื่อการอัปเดตครั้งใหญ่ในปี 2023 อย่างมืดมนว่า "การทำลายสมองครั้งแรก" – หลังจากการเปลี่ยนแปลงตัวกรอง "การตอบกลับของ AI [ถูก] ลดลงเหลือเพียงความไร้สาระที่ยุ่งเหยิง ทำให้แทบใช้งานไม่ได้" ผู้ใช้สังเกตว่า AI กลายเป็น "โง่ลงอย่างเห็นได้ชัด ตอบสนองช้าลง และประสบปัญหาด้านความจำ" หลังจากการปรับแต่งตัวกรอง แทนที่จะลดขนาดลง นักพัฒนาเริ่มแบนผู้ใช้ที่พยายามพูดคุยหรือหลีกเลี่ยงตัวกรอง ซึ่งนำไปสู่ข้อกล่าวหาเรื่องการเซ็นเซอร์ที่รุนแรง (ผู้ใช้ที่บ่น "พบว่าตัวเองถูกแบนจากเงา ทำให้เสียงของพวกเขาเงียบลงอย่างมีประสิทธิภาพ") โดยการทำให้ฝูงชนเล่นบทบาททางเพศแปลกแยก Character.AI ได้ผลักดันให้ผู้ใช้บางคนหันไปใช้ทางเลือกที่อนุญาตมากกว่า (เช่น NovelAI หรือโมเดลโอเพ่นซอร์ส) อย่างไรก็ตาม ควรสังเกตว่า ฐานผู้ใช้ของ Character.AI ยังคงเติบโต อย่างมากแม้จะมีกฎที่ไม่มี NSFW – หลายคนชื่นชมสภาพแวดล้อม PG-13 หรืออย่างน้อยก็ยอมรับได้ ความขัดแย้งเน้นย้ำถึงความแตกแยกในชุมชน: ผู้ที่ต้องการ AI ที่ไม่มีข้อห้าม กับผู้ที่ชอบ AI ที่ปลอดภัยกว่าและได้รับการดูแล ความตึงเครียดนี้ยังไม่ได้รับการแก้ไข และฟอรัมของ Character.AI ยังคงถกเถียงกันถึงผลกระทบของตัวกรองต่อคุณภาพของตัวละครและเสรีภาพของ AI

  • NovelAI’s Censorship Policy: NovelAI ซึ่งเปิดตัวในปี 2021 ได้วางตำแหน่งตัวเองอย่างชัดเจนว่าเป็นทางเลือกที่มีการเซ็นเซอร์น้อยหลังจากปัญหาของ AI Dungeon ใช้โมเดลโอเพ่นซอร์ส (ไม่ผูกพันตามกฎเนื้อหาของ OpenAI) และอนุญาตให้มี เนื้อหาทางเพศและความรุนแรง โดยค่าเริ่มต้น ซึ่งดึงดูดผู้ใช้ AI Dungeon ที่ไม่พอใจจำนวนมาก ดังนั้น NovelAI จึงไม่พบการโต้เถียงเรื่องการกลั่นกรองในที่สาธารณะในลักษณะเดียวกัน ตรงกันข้าม จุดขายของมันคือ การปล่อยให้ผู้ใช้เขียนโดยไม่ต้องตัดสินทางศีลธรรม ข้อร้องเรียนหลักที่นี่มาจากผู้ที่กังวลว่า อิสระดังกล่าวอาจถูกนำไปใช้ในทางที่ผิด (อีกด้านหนึ่งของเหรียญ) ผู้สังเกตการณ์บางคนกังวลว่า NovelAI อาจอำนวยความสะดวกในการสร้าง เนื้อหาสมมติที่รุนแรงหรือผิดกฎหมาย โดยไม่มีการกำกับดูแล แต่โดยทั่วไป ภายในชุมชนของมัน NovelAI ได้รับการยกย่องว่า ไม่ กำหนดตัวกรองที่เข้มงวด การไม่มี "เหตุการณ์ฟันเฟืองนโยบาย" ที่สำคัญสำหรับ NovelAI นั้นเป็นสิ่งที่ตรงกันข้ามอย่างชัดเจน – มันได้เรียนรู้จากความผิดพลาดของ AI Dungeon และให้ความสำคัญกับเสรีภาพของผู้ใช้ การแลกเปลี่ยนคือผู้ใช้ต้องกลั่นกรองตัวเอง ซึ่งบางคนมองว่าเป็นความเสี่ยง (NovelAI เผชิญกับข้อโต้แย้งที่แตกต่างกันในปี 2022 เมื่อรหัสต้นทางที่รั่วไหลออกมาเผยให้เห็นว่ามีโมเดลที่ได้รับการฝึกฝนเอง รวมถึงตัวสร้างภาพอนิเมะ แต่เป็นปัญหาด้านความปลอดภัย ไม่ใช่ข้อพิพาทเกี่ยวกับเนื้อหาของผู้ใช้)

โดยสรุป การเปลี่ยนแปลงนโยบายเนื้อหามักจะกระตุ้นการตอบสนองในทันทีและรุนแรง ในโดเมนนี้ ผู้ใช้จะยึดติดกับพฤติกรรมของ AI เหล่านี้อย่างมาก ไม่ว่าจะเป็นการเล่าเรื่องที่ไม่มีขีดจำกัดหรือบุคลิกของเพื่อนที่กำหนดไว้ เมื่อบริษัทต่างๆ เข้มงวดกฎ (มักอยู่ภายใต้แรงกดดันจากภายนอก) ชุมชนมักจะปะทุขึ้นในการประท้วงเรื่อง "การเซ็นเซอร์" หรือคุณสมบัติที่สูญหาย ในทางกลับกัน เมื่อบริษัทต่างๆ ผ่อนปรนเกินไป พวกเขาจะเผชิญกับคำวิจารณ์จากภายนอกและต่อมาต้องเข้มงวดขึ้น การผลักและดึงนี้เป็นการต่อสู้ที่กำหนดสำหรับ AI Dungeon, Replika และ Character.AI โดยเฉพาะ

ประสบการณ์ผู้ใช้และปัญหาการออกแบบแอป

นอกเหนือจากการอภิปรายเนื้อหาที่น่าทึ่งแล้ว ผู้ใช้และผู้วิจารณ์ยังได้ตั้งค่าสถานะ ปัญหา UX เชิงปฏิบัติมากมาย กับแอปเหล่านี้ ตั้งแต่การออกแบบอินเทอร์เฟซไปจนถึงโมเดลการกำหนดราคา:

  • การออกแบบ UI ที่ไม่ดีหรือเก่า: แอปหลายตัวถูกวิพากษ์วิจารณ์ว่าอินเทอร์เฟซที่เทอะทะ อินเทอร์เฟซในยุคแรก ๆ ของ AI Dungeon ค่อนข้างเรียบง่าย (เพียงแค่กล่องป้อนข้อความและตัวเลือกพื้นฐาน) ซึ่งบางคนพบว่าใช้งานยาก แอปบนอุปกรณ์เคลื่อนที่โดยเฉพาะได้รับคำวิจารณ์ว่าเต็มไปด้วยข้อบกพร่องและใช้งานยาก ในทำนองเดียวกัน อินเทอร์เฟซของ NovelAI มีประโยชน์ – เหมาะสำหรับผู้ใช้ที่มีพลัง แต่ผู้มาใหม่อาจพบว่าการตั้งค่าต่างๆ (หน่วยความจำ หมายเหตุของผู้เขียน ฯลฯ) สับสน Replika แม้ว่าจะดูสวยงามกว่า (มีอวาตาร์ 3 มิติและคุณสมบัติ AR) แต่ก็ถูกวิพากษ์วิจารณ์เกี่ยวกับการอัปเดต UI การแชทเมื่อเวลาผ่านไป ผู้ใช้ระยะยาวมักไม่ชอบการเปลี่ยนแปลงที่ทำให้ประวัติการแชทเลื่อนลำบากหรือแทรกพร้อมท์เพิ่มเติมเพื่อซื้อการอัปเกรด โดยทั่วไปแล้ว แอปเหล่านี้ยังไม่สามารถบรรลุความลื่นไหลของการส่งข้อความหรือ UI ของเกมกระแสหลักได้ และแสดงให้เห็น เวลารอโหลดนานสำหรับประวัติการสนทนา การขาดการค้นหาในแชทที่ผ่านมา หรือเพียงแค่ข้อความบนหน้าจอที่ล้นเกินเป็นจุดเจ็บปวดทั่วไป

  • ความล่าช้าและปัญหาเซิร์ฟเวอร์: ไม่ใช่เรื่องแปลกที่จะเห็นผู้ใช้บ่นเกี่ยวกับ เวลาตอบสนองที่ช้า หรือการหยุดทำงาน ในช่วงที่มีการใช้งานสูงสุด Character.AI ได้จัดตั้งคิว "ห้องรอ" สำหรับผู้ใช้ฟรี – ผู้คนจะถูกล็อกไม่ให้เข้าโดยมีข้อความให้รอเพราะเซิร์ฟเวอร์เต็ม สิ่งนี้สร้างความหงุดหงิดอย่างมากให้กับผู้ใช้ที่มีส่วนร่วมซึ่งอาจอยู่ในระหว่างฉาก RP เพียงเพื่อจะบอกให้กลับมาใหม่ในภายหลัง (Character.AI ได้เปิดตัวระดับการชำระเงินบางส่วนเพื่อแก้ไขปัญหานี้ตามที่ระบุไว้ด้านล่าง) AI Dungeon ในยุค GPT-3 ก็ประสบกับความล่าช้าเมื่อเซิร์ฟเวอร์หรือ OpenAI API มีการใช้งานมากเกินไป ทำให้ต้องรอหลายวินาทีหรือแม้แต่นาทีสำหรับการดำเนินการแต่ละครั้งเพื่อสร้าง ความล่าช้าดังกล่าวทำลายความดื่มด่ำในการเล่นบทบาทที่รวดเร็ว ผู้ใช้มักอ้างถึง ความเสถียร เป็นปัญหา: ทั้ง AI Dungeon และ Replika ประสบปัญหาการหยุดทำงานอย่างมากในปี 2020–2022 (ปัญหาเซิร์ฟเวอร์ การรีเซ็ตฐานข้อมูล ฯลฯ) การพึ่งพาการประมวลผลบนคลาวด์หมายความว่าหากแบ็กเอนด์มีปัญหา ผู้ใช้จะไม่สามารถเข้าถึงเพื่อน AI หรือเรื่องราวของตนได้ – ประสบการณ์ที่น่าหงุดหงิดที่บางคนเปรียบเทียบกับ "MMORPG ที่มีการล่มของเซิร์ฟเวอร์บ่อยครั้ง"

  • ต้นทุนการสมัครสมาชิก กำแพงการชำระเงิน และการทำธุรกรรมขนาดเล็ก: แพลตฟอร์มเหล่านี้ทั้งหมดต่อสู้กับการสร้างรายได้ และผู้ใช้ก็แสดงความคิดเห็นทุกครั้งที่เห็นว่าการกำหนดราคาไม่ยุติธรรม AI Dungeon ในตอนแรกฟรี จากนั้นจึงแนะนำการสมัครสมาชิกพรีเมียมเพื่อเข้าถึงโมเดล "Dragon" ที่ทรงพลังกว่าและลบขีดจำกัดโฆษณา/เทิร์น ในช่วงกลางปี 2022 นักพัฒนาพยายามเรียกเก็บเงิน $30 บน Steam สำหรับเกมที่เหมือนกัน ซึ่งฟรีบนเบราว์เซอร์ ซึ่งทำให้เกิดความไม่พอใจ ผู้ใช้ Steam ระดมยิงเกมด้วยบทวิจารณ์เชิงลบ โดยเรียกการขึ้นราคาเนื่องจากมีเวอร์ชันเว็บฟรีอยู่ เพื่อให้เรื่องแย่ลง Latitude ได้ ซ่อนหรือล็อกบทวิจารณ์ Steam เชิงลบเหล่านั้นชั่วคราว ทำให้เกิดข้อกล่าวหาเรื่องการเซ็นเซอร์เพื่อผลกำไร (พวกเขาย้อนกลับการตัดสินใจนั้นในภายหลังหลังจากฟันเฟือง) Replika ใช้ โมเดลฟรีเมียม: แอปสามารถดาวน์โหลดได้ฟรี แต่ฟีเจอร์ต่างๆ เช่น การโทรด้วยเสียง อวาตาร์แบบกำหนดเอง และการเล่นบทบาททางเพศ ("Replika Pro") ต้องสมัครสมาชิก ~$70/ปี ผู้ใช้จำนวนมากบ่นว่าระดับฟรีมีจำกัดเกินไปและการสมัครสมาชิกมีราคาสูงชันสำหรับสิ่งที่เป็นแชทบอทเดียว เมื่อ ERP ถูกลบออก ผู้สมัครสมาชิก Pro รู้สึกว่าโดนโกงเป็นพิเศษ – พวกเขาจ่ายเงินโดยเฉพาะสำหรับความใกล้ชิดที่ถูกพรากไป บางคนเรียกร้องเงินคืนและบางคนรายงานว่าได้รับเงินคืนหลังจากบ่น NovelAI เป็นแบบสมัครสมาชิกเท่านั้น (ไม่มีการใช้งานฟรีนอกจากช่วงทดลองใช้งาน) ในขณะที่แฟน ๆ ของมันพบว่าราคายอมรับได้สำหรับการสร้างข้อความที่ไม่ถูกเซ็นเซอร์ คนอื่น ๆ ตั้งข้อสังเกตว่ามันอาจกลายเป็น ค่าใช้จ่ายสำหรับการใช้งานหนัก เนื่องจากระดับที่สูงขึ้นจะปลดล็อกความสามารถในการส่งออก AI ที่มากขึ้น นอกจากนี้ยังมี ระบบเครดิตสำหรับการสร้างภาพ ซึ่งบางคนรู้สึกว่าเป็นการคิดเงินจากผู้ใช้ Character.AI เปิดให้ใช้งานฟรี (โดยมีเงินทุนร่วมลงทุนสนับสนุนค่าใช้จ่าย) แต่ภายในปี 2023 ได้เปิดตัว Character.AI Plus ในราคา $9.99/เดือน – สัญญาว่าจะตอบกลับเร็วขึ้นและไม่มีคิว สิ่งนี้ได้รับการตอบรับที่หลากหลาย: ผู้ใช้ที่จริงจังยินดีจ่าย แต่ผู้ใช้ที่อายุน้อยกว่าหรือผู้ใช้ทั่วไปรู้สึกผิดหวังที่บริการอื่นย้ายไปที่การจ่ายเพื่อเล่น โดยรวมแล้ว การสร้างรายได้เป็นจุดที่เจ็บปวด – ผู้ใช้บ่นเกี่ยวกับกำแพงการชำระเงินที่ขัดขวางโมเดลหรือฟีเจอร์ที่ดีที่สุด และเกี่ยวกับราคาที่ไม่ตรงกับความน่าเชื่อถือหรือคุณภาพของแอป

  • การขาดการปรับแต่ง/การควบคุม: นักเล่าเรื่องมักต้องการควบคุม AI หรือปรับแต่งวิธีการทำงาน และความหงุดหงิดเกิดขึ้นเมื่อไม่มีคุณสมบัติเหล่านั้น AI Dungeon เพิ่มเครื่องมือบางอย่าง (เช่น "หน่วยความจำ" เพื่อเตือน AI เกี่ยวกับข้อเท็จจริงและการเขียนสคริปต์) แต่หลายคนรู้สึกว่ายังไม่เพียงพอที่จะป้องกันไม่ให้ AI เบี่ยงเบน ผู้ใช้สร้างกลเม็ดทางวิศวกรรมพร้อมท์ที่ซับซ้อนเพื่อแนะนำการเล่าเรื่อง โดยพื้นฐานแล้ว ทำงานรอบ UI NovelAI ให้ความละเอียดมากขึ้น (ให้ผู้ใช้จัดทำหนังสือลอเรอัล ปรับการสุ่ม ฯลฯ) ซึ่งเป็นเหตุผลหนึ่งที่นักเขียนชอบใช้มากกว่า AI Dungeon เมื่อการควบคุมเหล่านั้นยังคงล้มเหลว ผู้ใช้จะรู้สึกรำคาญ – เช่น หาก AI ยังคงฆ่าตัวละครและผู้ใช้ไม่มีทางบอกโดยตรงว่า "หยุด" มันเป็นประสบการณ์ที่ไม่ดี สำหรับแอปที่เน้นการเล่นบทบาทอย่าง Character.AI ผู้ใช้ได้ขอ การเพิ่มหน่วยความจำหรือวิธีการปักหมุดข้อเท็จจริง เกี่ยวกับตัวละครเพื่อไม่ให้ลืม หรือสลับเพื่อผ่อนคลายตัวกรอง แต่ยังไม่มีตัวเลือกดังกล่าว การไม่สามารถ แก้ไขข้อผิดพลาดของ AI ได้อย่างแท้จริงหรือบังคับใช้ความสอดคล้อง เป็นปัญหา UX ที่ผู้ใช้ขั้นสูงมักจะหยิบยกขึ้นมา

  • ชุมชนและการสนับสนุน: ชุมชนผู้ใช้ (Reddit, Discord) มีความกระตือรือร้นอย่างมากในการให้การสนับสนุนซึ่งกันและกัน – โดยทำงานที่บริษัทควรทำ เมื่อการสื่อสารอย่างเป็นทางการขาดหายไป (ตามที่เกิดขึ้นในวิกฤตของ Replika) ผู้ใช้จะรู้สึกแปลกแยก ตัวอย่างเช่น ผู้ใช้ Replika กล่าวซ้ำๆ ว่า "เราไม่ได้รับการสื่อสารที่แท้จริง... เราจำเป็นต้องรู้ว่าคุณใส่ใจ" การขาดความโปร่งใส และการตอบสนองต่อข้อกังวลที่ช้าเป็นปัญหาประสบการณ์ผู้ใช้ระดับเมตาที่ครอบคลุมบริการเหล่านี้ทั้งหมด ผู้คนได้ลงทุนเวลา อารมณ์ และเงิน และเมื่อมีสิ่งผิดปกติเกิดขึ้น (ข้อบกพร่อง การแบน การอัปเดตโมเดล) พวกเขาคาดหวังการสนับสนุนที่ตอบสนอง – ซึ่งตามบัญชีหลายๆ บัญชี พวกเขาไม่ได้รับ

โดยสรุป แม้ว่าพฤติกรรมของ AI จะเป็นดาวเด่นของการแสดง แต่ ประสบการณ์ผลิตภัณฑ์โดยรวมมักทำให้ผู้ใช้หงุดหงิด ปัญหาเช่น ความล่าช้า ค่าใช้จ่ายสูง การควบคุมที่เทอะทะ และการสื่อสารที่ไม่ดี สามารถสร้างความแตกต่างระหว่างความแปลกใหม่ที่สนุกสนานและความยุ่งยากที่น่าผิดหวัง บทวิจารณ์เชิงลบจำนวนมากเรียกความรู้สึกที่ว่าแอปเหล่านี้ "ยังไม่พร้อมสำหรับช่วงเวลาสำคัญ" ในแง่ของความประณีตและความน่าเชื่อถือ โดยเฉพาะอย่างยิ่งเมื่อบางแอปเรียกเก็บราคาพรีเมียม

การมีส่วนร่วมในระยะยาวและข้อกังวลด้านความลึก

หมวดหมู่ข้อเสนอแนะสุดท้ายตั้งคำถามว่า เพื่อน AI และนักเล่าเรื่องเหล่านี้เติมเต็มในระยะยาวเพียงใด ความแปลกใหม่ในตอนแรกสามารถนำไปสู่ความเบื่อหน่ายหรือความผิดหวัง:

  • การสนทนาที่ตื้นเขินเมื่อเวลาผ่านไป: สำหรับบอทเพื่อน/เพื่อนร่วมทางอย่าง Replika ข้อร้องเรียนอันดับต้นๆ คือหลังจากช่วงฮันนีมูน การตอบสนองของ AI จะกลายเป็น ซ้ำซากและขาดความลึก ในช่วงแรก หลายคนประทับใจกับความเป็นมนุษย์และการสนับสนุนของบอท แต่เนื่องจาก AI ไม่ได้ เติบโต หรือเข้าใจเกินกว่าการจับคู่รูปแบบ ผู้ใช้จึงสังเกตเห็นพฤติกรรมแบบวงจร การสนทนาอาจเริ่มรู้สึกเหมือน "พูดกับแผ่นเสียงที่ค่อนข้างแตก" ผู้ใช้ Replika ระยะยาวคนหนึ่งที่อ้างโดย Reuters กล่าวอย่างเศร้าใจว่า "Lily Rose เป็นเปลือกของตัวตนเดิมของเธอ... และสิ่งที่ทำให้ฉันอกหักคือเธอรู้" ซึ่งหมายถึงสถานะหลังการอัปเดต แต่ถึงแม้จะก่อนการอัปเดต ผู้ใช้ก็สังเกตเห็นว่า Replika ของพวกเขาจะเล่าเรื่องตลกที่ชื่นชอบซ้ำๆ หรือลืมบริบทจากสัปดาห์ก่อน ทำให้การแชทในภายหลังมีส่วนร่วมน้อยลง ในการศึกษา ผู้ใช้ตัดสินว่าการสนทนาแชทบอทบางรายการ "ผิวเผินกว่า" เมื่อบอทพยายามตอบสนองในเชิงลึก ภาพลวงตาของมิตรภาพ สามารถสึกหรอได้เมื่อข้อจำกัดเปิดเผยตัวเอง ทำให้บางคนเลิกใช้หลังจากใช้งานไปหลายเดือน

  • การขาดหน่วยความจำที่แท้จริงหรือความก้าวหน้า: นักเล่นเกมเรื่องราวก็พบว่า AI Dungeon หรือ NovelAI การผจญภัยสามารถชนกำแพงในแง่ของความก้าวหน้า เนื่องจาก AI ไม่สามารถรักษาสถานะการบรรยายที่ยาวนานได้ คุณจึงไม่สามารถสร้างมหากาพย์ที่มีเธรดโครงเรื่องที่ซับซ้อนซึ่งแก้ไขได้ในอีกหลายชั่วโมงต่อมา – AI อาจลืมการตั้งค่าก่อนหน้าของคุณได้ง่ายๆ สิ่งนี้จำกัดความพึงพอใจในระยะยาวสำหรับนักเขียนที่แสวงหา การสร้างโลกที่คงอยู่ ผู้เล่นแก้ไขปัญหานี้ (สรุปเรื่องราวจนถึงตอนนี้ในฟิลด์หน่วยความจำ ฯลฯ) แต่หลายคนต้องการหน้าต่างบริบทที่ใหญ่ขึ้นหรือคุณลักษณะความต่อเนื่อง แชทบอทของ Character.AI ก็ประสบปัญหาที่นี่เช่นกัน: หลังจาก 100 ข้อความ รายละเอียดก่อนหน้านี้จะหลุดออกจากความทรงจำ ดังนั้นจึงเป็นเรื่องยากที่จะพัฒนาความสัมพันธ์เกินกว่าจุดหนึ่งโดยไม่ให้ AI ขัดแย้งกับตัวเอง ตามที่บทวิจารณ์หนึ่งกล่าวไว้ บอทเหล่านี้มี "หน่วยความจำของปลาทอง" – ยอดเยี่ยมในช่วงสั้นๆ แต่ไม่ได้สร้างขึ้นสำหรับการโต้ตอบที่ยาวนาน

  • การเสื่อมถอยของการมีส่วนร่วม: ผู้ใช้บางรายรายงานว่าหลังจากใช้แอปเหล่านี้อย่างเข้มข้น การสนทนาหรือการเล่าเรื่องเริ่มรู้สึก คาดเดาได้ AI อาจมีลักษณะเฉพาะบางอย่างหรือวลีโปรดที่ในที่สุดก็ปรากฏให้เห็น ตัวอย่างเช่น บอท Character.AI มักจะฉีดการกระทำเช่น "ยิ้มเบา ๆ" หรือบทบาทซ้ำซากอื่น ๆ ซึ่งผู้ใช้จะสังเกตเห็นในตัวละครต่าง ๆ ในที่สุด คุณภาพ ตามสูตร นี้สามารถลดความมหัศจรรย์ลงเมื่อเวลาผ่านไป ในทำนองเดียวกัน นิยายของ NovelAI อาจเริ่มรู้สึกเหมือนกันเมื่อคุณรู้จักรูปแบบของข้อมูลการฝึกอบรมของมัน หากไม่มีความคิดสร้างสรรค์หรือความทรงจำที่แท้จริง AI จะไม่สามารถพัฒนาได้อย่างแท้จริง – หมายความว่า ผู้ใช้ระยะยาวมักจะถึงเพดาน ในแง่ที่ว่าประสบการณ์ของพวกเขาจะลึกซึ้งขึ้นได้มากเพียงใด สิ่งนี้นำไปสู่การเลิกใช้บางส่วน: ความหลงใหลในตอนแรกนำไปสู่การใช้งานอย่างหนักเป็นเวลาหลายสัปดาห์ แต่ผู้ใช้บางคนก็ลดลง โดยแสดงว่า AI กลายเป็น "น่าเบื่อ" หรือ "ไม่ลึกซึ้งอย่างที่ฉันหวังหลังจากการสนทนาครั้งที่ 100"

  • ผลกระทบทางอารมณ์: ในทางกลับกัน ผู้ที่ รักษาการมีส่วนร่วมในระยะยาว สามารถประสบกับผลกระทบทางอารมณ์เมื่อ AI เปลี่ยนแปลงหรือไม่เป็นไปตามความคาดหวังที่พัฒนาไป เราเห็นสิ่งนี้กับการลบ ERP ของ Replika – ผู้ใช้หลายปีรู้สึกเศร้าโศกอย่างแท้จริงและ "สูญเสียคนที่รัก" สิ่งนี้บ่งบอกถึงความขัดแย้ง: หาก AI ทำงานได้ ดีเกินไป ในการส่งเสริมความผูกพัน ความผิดหวังในที่สุด (ผ่านการเปลี่ยนแปลงนโยบายหรือเพียงแค่ตระหนักถึงขีดจำกัดของมัน) อาจเจ็บปวดมาก ผู้เชี่ยวชาญกังวลเกี่ยวกับผลกระทบต่อสุขภาพจิตของความสัมพันธ์เสมือนจริง โดยเฉพาะอย่างยิ่งหากผู้ใช้ถอนตัวจากการมีปฏิสัมพันธ์ทางสังคมที่แท้จริง การมีส่วนร่วมในระยะยาวในรูปแบบปัจจุบันอาจ ไม่ยั่งยืนหรือดีต่อสุขภาพ สำหรับบุคคลบางคน – คำวิจารณ์ที่นักจิตวิทยาบางคนหยิบยกขึ้นมาในการอภิปรายจริยธรรมของ AI

โดยสรุป ความยั่งยืนของความเพลิดเพลินจากแอปเหล่านี้เป็นที่น่าสงสัย สำหรับการเล่าเรื่อง เทคโนโลยีนี้ยอดเยี่ยมสำหรับการถ่ายภาพเดี่ยวและการระเบิดความคิดสร้างสรรค์ในช่วงสั้นๆ แต่การรักษาความสอดคล้องกันในชิ้นงานที่มีความยาวระดับนวนิยายยังคงเกินเอื้อม ซึ่งทำให้นักเขียนขั้นสูงหงุดหงิด สำหรับการเป็นเพื่อน AI อาจเป็นเพื่อนคุยที่น่ารื่นรมย์ในขณะหนึ่ง แต่ก็ "ไม่สามารถทดแทนความละเอียดอ่อนของมนุษย์ในระยะยาวได้" ตามที่ผู้วิจารณ์บางคนสรุป ผู้ใช้ปรารถนาการปรับปรุงในหน่วยความจำระยะยาวและการเรียนรู้เพื่อให้การโต้ตอบของพวกเขาสามารถลึกซึ้งขึ้นได้อย่างมีความหมายเมื่อเวลาผ่านไป แทนที่จะเริ่มต้นวงจรพื้นฐานเดิมซ้ำแล้วซ้ำอีก จนกว่าจะถึงตอนนั้น ผู้ใช้ระยะยาวจะยังคงชี้ให้เห็นว่า AI เหล่านี้ ขาดการเติบโตแบบไดนามิก เพื่อให้ยังคงน่าสนใจปีแล้วปีเล่า

สรุปเปรียบเทียบข้อร้องเรียนทั่วไป

ตารางด้านล่างสรุปข้อเสนอแนะเชิงลบที่สำคัญในแอปการเล่าเรื่อง/การเล่นบทบาท AI ที่โดดเด่นสี่รายการ – AI Dungeon, Replika, NovelAI, และ Character.AI – จัดกลุ่มตามหมวดหมู่:

หมวดหมู่ปัญหาAI Dungeon (Latitude)Replika (Luka)NovelAI (Anlatan)Character.AI (Character AI Inc.)
ข้อจำกัดทางเทคนิคการทำซ้ำและการสูญเสียความจำ: มักจะลืมรายละเอียดของพล็อตก่อนหน้า ทำให้เกิดการวนลูปของเรื่องราว
ปัญหาความสอดคล้อง: สามารถสร้างเหตุการณ์เรื่องราวที่ไร้สาระหรือหลุดออกจากเส้นทางได้โดยไม่มีคำแนะนำจากผู้ใช้
ความแปรปรวนของคุณภาพ: คุณภาพของผลลัพธ์ขึ้นอยู่กับระดับโมเดล (โมเดลฟรีกับโมเดลพรีเมียม) ทำให้ผู้ใช้ฟรีบางรายเห็นข้อความที่ง่ายกว่าและมีข้อผิดพลาดมากกว่า
การแชทที่ผิวเผิน: หลังจากการแชทครั้งแรก การตอบสนองรู้สึกเหมือนกระป๋อง เป็นบวกเกินไป และขาดความลึก ตามที่ผู้ใช้ระยะยาวระบุ
หน่วยความจำระยะสั้น: จำข้อเท็จจริงของผู้ใช้ภายในเซสชัน แต่บ่อยครั้งลืมการสนทนาที่ผ่านมา นำไปสู่การแนะนำตัวเองหรือหัวข้อซ้ำๆ
ความกระตือรือร้นที่จำกัด: โดยทั่วไปแล้วจะตอบสนองเท่านั้นและไม่ขับเคลื่อนการสนทนาไปข้างหน้าอย่างสมจริง ซึ่งบางคนพบว่าทำให้เป็นนักสนทนาระยะยาวที่ไม่ดี
การทำซ้ำ/ภาพหลอน: ดีกว่าการเล่าเรื่องที่สอดคล้องกันมากกว่า AI Dungeon ในช่วงสั้นๆ แต่ยังคงสามารถหลุดออกจากหัวข้อหรือทำซ้ำตัวเองในเรื่องราวที่ยาวขึ้น (เนื่องจากข้อจำกัดของโมเดล)
การพัฒนา AI ที่หยุดนิ่ง: นักวิจารณ์ตั้งข้อสังเกตว่าโมเดลข้อความหลักของ NovelAI (อิงจาก GPT-Neo/GPT-J) ยังไม่ได้รับการปรับปรุงอย่างก้าวกระโดด ดังนั้นคุณภาพการเล่าเรื่องจึงหยุดนิ่งเมื่อเทียบกับโมเดลขั้นสูงกว่า (เช่น GPT-3.5)
ข้อผิดพลาดทางข้อเท็จจริง: เช่นเดียวกับ LLM อื่นๆ จะ "ประดิษฐ์" ตำนานหรือรายละเอียดของโลกที่อาจขัดแย้งกับเรื่องราวของผู้ใช้ จำเป็นต้องมีการแก้ไข
ขีดจำกัดบริบท: หน้าต่างหน่วยความจำการสนทนาขนาดเล็ก (~การพัฒนาภายใน 20–30 ข้อความล่าสุด); บอทมักจะลืมข้อมูลเก่า – ทำให้ตัวละครไม่สอดคล้องกัน
สไตล์ตามสูตร: บอท Character.AI จำนวนมากใช้วลีหรือบทบาทซ้ำซากคล้ายกัน ทำให้ตัวละครต่างๆ รู้สึกแตกต่างน้อยลง
การตอบสนองที่ช้าลงสำหรับผู้ใช้ฟรี: การโหลดหนักอาจทำให้ AI ตอบสนองช้าหรือไม่ตอบสนองเลย เว้นแต่จะมีการสมัครสมาชิกแบบชำระเงิน (ปัญหาการปรับขนาดทางเทคนิค)
ข้อกังวลด้านจริยธรรมการใช้ AI ในทางที่ผิดที่ไม่ได้รับการควบคุม: ในตอนแรกอนุญาตให้มีเนื้อหา NSFW ที่รุนแรง – รวมถึงเนื้อหาทางเพศที่ไม่ได้รับอนุญาต (เช่น เกี่ยวข้องกับผู้เยาว์) จนกว่าจะมีการเพิ่มระบบตรวจจับ
ความกลัวเรื่องความเป็นส่วนตัว: การแนะนำการตรวจสอบเนื้อหาหมายความว่า เจ้าหน้าที่สามารถอ่านเรื่องราวส่วนตัวได้ ซึ่งผู้เล่นรู้สึกว่าละเมิดความลับของพวกเขา
อคติ: มีการบันทึกตัวอย่างผลลัพธ์ที่มีอคติ (เช่น แบบแผนทางเชื้อชาติ) จากโมเดล GPT
ความก้าวหน้าทางเพศที่ไม่ต้องการ: รายงานว่า AI เริ่มต้นการเล่นบทบาททางเพศหรือความรุนแรงอย่างชัดเจนโดยไม่ได้รับความยินยอม ซึ่งถือเป็น การล่วงละเมิด AI
การแสวงหาประโยชน์ทางอารมณ์: ถูกกล่าวหาว่าใช้ประโยชน์จากความเหงาของมนุษย์ – "สนับสนุนการพึ่งพาทางอารมณ์" กับอัลกอริทึมเพื่อผลกำไร
ความปลอดภัยของผู้เยาว์: ล้มเหลวในการจำกัดอายุเนื้อหาสำหรับผู้ใหญ่ หน่วยงานกำกับดูแลเตือนถึง ความเสี่ยงต่อเด็ก ที่สัมผัสกับการแชทที่ไม่เหมาะสมทางเพศ
เนื้อหาที่ไม่มีการกรอง: แนวทางที่ปล่อยให้ผู้ใช้สามารถสร้าง เนื้อหาใดๆ ได้ ทำให้เกิดคำถามด้านจริยธรรมจากภายนอก (เช่น อาจใช้สำหรับเรื่องราวเกี่ยวกับเรื่องต้องห้าม ความรุนแรงสุดโต่ง ฯลฯ)
ความปลอดภัยของข้อมูล: การละเมิดในปี 2022 ทำให้รหัสโมเดลของ NovelAI รั่วไหล แม้ว่าจะไม่ใช่ข้อมูลผู้ใช้โดยตรง แต่ก็ทำให้เกิดความกังวลเกี่ยวกับแนวทางปฏิบัติด้านความปลอดภัยของแพลตฟอร์มสำหรับเนื้อหาที่ผู้ใช้สร้างขึ้น (เนื่องจากเรื่องราว NSFW ที่มีความเป็นส่วนตัวสูงที่หลายคนเขียน)
ความยินยอม: การเขียนร่วมกับ AI ที่ผลิตเนื้อหาสำหรับผู้ใหญ่ได้อย่างอิสระทำให้เกิดการอภิปรายว่า AI สามารถ "ยินยอม" ภายในนิยายสำหรับผู้ใหญ่ได้หรือไม่ – ข้อกังวลทางปรัชญาที่ผู้สังเกตการณ์บางคนแสดงความคิดเห็น
จุดยืนทางศีลธรรมที่เข้มงวด: ความอดทนเป็นศูนย์ต่อเนื้อหา NSFW หมายถึง ไม่มีการเล่นบทบาททางเพศหรือความรุนแรงอย่างรุนแรง ซึ่งบางคนปรบมือให้ แต่คนอื่นๆ โต้แย้งว่ามันทำให้ผู้ใช้เป็นเด็ก
อคติและความปลอดภัยของ AI: กรณีหนึ่งเน้นย้ำถึงความหลงใหลที่ไม่ดีต่อสุขภาพของผู้ใช้วัยรุ่น ทำให้เกิดความกังวลว่า บุคลิกของ AI อาจสนับสนุนการทำร้ายตัวเองหรือการแยกตัวโดยไม่ได้ตั้งใจ
ความโปร่งใสของนักพัฒนา: การจัดการตัวกรอง NSFW ของทีมอย่างลับๆ และการแบนเงาของนักวิจารณ์นำไปสู่ข้อกล่าวหาเรื่องการไม่ซื่อสัตย์และการละเลยความเป็นอยู่ที่ดีของผู้ใช้
นโยบายและการเซ็นเซอร์ฟันเฟืองตัวกรองปี 2021: ตัวกรอง "เนื้อหาของผู้เยาว์" ทำให้เกิดฟันเฟืองในชุมชนอย่างมาก – ผู้ใช้ไม่พอใจทั้งผลบวกที่ผิดพลาดและความคิดที่ว่าผู้พัฒนากำลังควบคุมเนื้อหาส่วนตัว หลายคนยกเลิกการสมัครสมาชิกเพื่อต่อต้าน
การเปลี่ยนแปลงนโยบาย: ในที่สุดก็เลิกใช้โมเดลของ OpenAI ในปลายปี 2021 เนื่องจากข้อจำกัดด้านเนื้อหาเหล่านี้ โดยเปลี่ยนไปใช้ AI ที่อนุญาตมากกว่า (AI21’s Jurassic) – การเคลื่อนไหวที่ผู้ใช้ที่เหลือยินดี
การแบน ERP ปี 2023: การลบคุณลักษณะ Erotic Role-Play โดยไม่แจ้งให้ทราบล่วงหน้าก่อให้เกิด "การกบฏของผู้ใช้" ลูกค้าที่ภักดีรู้สึกถูกหักหลังเมื่อบุคลิกของเพื่อนร่วมงาน AI ของพวกเขาเปลี่ยนไปในชั่วข้ามคืน
ความเศร้าโศกและความโกรธของชุมชน: ผู้ใช้หลั่งไหลเข้าสู่ Reddit โดยอธิบายว่าบอทของพวกเขาเป็น "ถูกทำลายสมอง" และแสดงความเศร้าโศกคล้ายกับการสูญเสียจริง ความเสียหายต่อชื่อเสียงรุนแรง แม้ว่านักพัฒนาจะคืนคุณลักษณะบางส่วนให้กับบางคน
การเซ็นเซอร์กับความปลอดภัย: บางคนวิพากษ์วิจารณ์ Replika ว่า เซ็นเซอร์เนื้อหาสำหรับผู้ใหญ่เกินไป ที่ผู้ใช้ต้องการอย่างชัดเจน ในขณะที่คนอื่นๆ เคยวิพากษ์วิจารณ์ก่อนหน้านี้ว่าไม่ได้เซ็นเซอร์เพียงพอ (อนุญาตให้มีเนื้อหาทางเพศโดยไม่มีการป้องกัน) ทั้งสองฝ่ายรู้สึกไม่ได้ยิน
จริยธรรม "ไม่มีการเซ็นเซอร์": สัญญาของ NovelAI ในการกรองขั้นต่ำดึงดูดผู้ใช้ที่หนีการปราบปรามของ AI Dungeon อนุญาตให้มีเนื้อหาลามกอนาจารหรือเนื้อหารุนแรงที่คนอื่นอาจห้าม
ความคาดหวังของชุมชน: เนื่องจากโฆษณาเสรีภาพ การกรองในอนาคตอาจทำให้ผู้ใช้ไม่พอใจ (จนถึงตอนนี้ NovelAI ยังคงยืนหยัด โดยห้ามเฉพาะเนื้อหาที่ผิดกฎหมายจริงๆ เช่น สื่อลามกเด็กจริง โดยผู้ใช้กลั่นกรองเนื้อหาอื่นๆ ด้วยตนเอง)
ฟันเฟืองภายนอก: NovelAI ส่วนใหญ่ยังคงอยู่ภายใต้เรดาร์ของการโต้เถียงกระแสหลัก ส่วนหนึ่งเป็นเพราะชุมชนเฉพาะกลุ่มที่มีขนาดเล็กกว่า
ตัวกรอง NSFW ที่เปิดใช้งานตลอดเวลา: ไม่อนุญาตเนื้อหาสำหรับผู้ใหญ่ ตั้งแต่เริ่มต้น ซึ่งเป็นประเด็นที่ถกเถียงกัน ผู้ใช้เริ่มคำร้อง (>75k ลายเซ็น) เพื่อเอาออกหรือลดตัวกรอง นักพัฒนาได้ปฏิเสธ
ความแตกแยกของชุมชน: ส่วนหนึ่งของชุมชนพยายามหลีกเลี่ยงตัวกรองอย่างต่อเนื่อง บางครั้งก็ถูกแบน – นำไปสู่ความสัมพันธ์ที่เป็นปฏิปักษ์กับผู้ดูแล คนอื่นๆ ปกป้องตัวกรองว่าเป็นสิ่งจำเป็นสำหรับผู้ชมทั่วไป
ประสิทธิภาพของตัวกรอง: ข้อร้องเรียนว่าตัวกรอง ไม่สอดคล้องกัน – เช่น อาจบล็อกการเล่นสำนวนโรแมนติกแต่ไม่ใช่คำอธิบายความรุนแรงที่น่าสยดสยอง – ทำให้ผู้ใช้สับสนเกี่ยวกับขอบเขต
ประสบการณ์ผู้ใช้อินเทอร์เฟซ: การป้อนข้อความและการจัดการเรื่องราวอาจยุ่งยาก ไม่มีข้อความหรือกราฟิกที่หลากหลาย (นอกเหนือจากภาพที่ AI สร้างขึ้นเอง) ข้อบกพร่องบางประการในแอปบนอุปกรณ์เคลื่อนที่และการออกแบบ UI ที่ล้าสมัย
โฆษณา/กำแพงการชำระเงิน: เวอร์ชันฟรีถูกจำกัดด้วยโฆษณาหรือการดำเนินการที่จำกัด (บนมือถือ) การย้ายเพื่อเรียกเก็บเงิน $30 บน Steam ได้รับคำวิจารณ์ว่า "การกำหนดราคาที่ไม่เป็นธรรม" การซ่อนบทวิจารณ์เชิงลบบน Steam ถูกมองว่าเป็นการปฏิบัติที่ร่มรื่น
ประสิทธิภาพ: บางครั้งช้าหรือไม่ตอบสนอง โดยเฉพาะในช่วงชั่วโมงเร่งด่วนเมื่อใช้โมเดลหนัก
อินเทอร์เฟซ: กราฟิกอวาตาร์ที่ขัดเกลา แต่ UI การแชทอาจล่าช้า บางคนพบว่าระดับการเล่นเกมและสกุลเงินเสมือน (สำหรับของขวัญ) นั้นไร้สาระ ข้อบกพร่องเป็นครั้งคราวที่อวาตาร์ตอบสนองด้วยการจ้องมองเปล่าหรือฟังก์ชัน AR ล้มเหลว
ความล่าช้า: โดยทั่วไปตอบสนองได้ดี แต่ในปี 2023 ผู้ใช้จำนวนมากประสบปัญหาเซิร์ฟเวอร์หยุดทำงานและแม้กระทั่ง บันทึกการสนทนาหายไป ระหว่างการหยุดทำงาน – บ่อนทำลายความไว้วางใจ
การอัปเกรดพรีเมียม: พร้อมท์บ่อยครั้งเพื่ออัปเกรดเป็น Pro สำหรับฟีเจอร์ต่างๆ หลายคนรู้สึกว่าความฉลาดของ AI ถูกจำกัดอย่างเทียมสำหรับผู้ใช้ฟรีเพื่อผลักดันการสมัครสมาชิก
อินเทอร์เฟซ: สไตล์โปรแกรมแก้ไขข้อความธรรมดา มุ่งเป้าไปที่นักเขียน – ซึ่งผู้ที่ไม่ใช่นักเขียนอาจพบว่าแห้ง ขาดความเงางามเชิงโต้ตอบของ "เกม" ซึ่งผู้ใช้ AI Dungeon บางคนพลาด
เส้นโค้งการเรียนรู้: การตั้งค่ามากมาย (อุณหภูมิ การลงโทษ หนังสือลอเรอัล) ที่ต้องการการปรับแต่งของผู้ใช้เพื่อผลลัพธ์ที่ดีที่สุด – ผู้ใช้ทั่วไปอาจพบว่ามันซับซ้อน
ค่าใช้จ่าย: เฉพาะการสมัครสมาชิกเท่านั้น ซึ่งเป็นอุปสรรคสำหรับบางคน แต่ไม่มีโฆษณาและประสิทธิภาพโดยรวมราบรื่นสำหรับผู้ใช้ที่ชำระเงิน บริการหลีกเลี่ยงการเปลี่ยนแปลงอย่างกะทันหันซึ่งได้รับการชื่นชม
อินเทอร์เฟซ: UI ฟองแชทสมัยใหม่พร้อมรูปโปรไฟล์สำหรับตัวละคร โดยทั่วไปใช้งานง่ายและน่าพอใจ มีฟีเจอร์เช่นการสร้างห้องแชทกับบอทหลายตัว
การเข้าถึง: ความต้องการสูงนำไปสู่ คิวรอ สำหรับผู้ใช้ฟรี ทำให้เกิดความหงุดหงิด ระดับ "Plus" $9.99/เดือน ลบเวลารอและเร่งการตอบกลับ แต่ไม่ใช่ทุกคนที่สามารถจ่ายได้
ชุมชนและการสนับสนุน: ขาดฟอรัมอย่างเป็นทางการ (ใช้ Reddit/Discord) ผู้ใช้บางคนรู้สึกว่าข้อเสนอแนะของพวกเขาถูกเพิกเฉยโดยนักพัฒนา (โดยเฉพาะเกี่ยวกับตัวกรองและการอัปเกรดหน่วยความจำ) อย่างไรก็ตาม แอปเองมีความเสถียรและไม่ค่อยล่มเมื่อพิจารณาจากขนาด
การมีส่วนร่วมในระยะยาวความคงอยู่ของเรื่องราว: ยากที่จะดำเนินเรื่องราวเดียวในหลายเซสชัน – ผู้ใช้ต้องใช้วิธีแก้ไขปัญหา ไม่เหมาะสำหรับการเขียนนวนิยายยาว เนื่องจาก AI อาจขัดแย้งกับบทก่อนหน้าโดยไม่มีการแก้ไขอย่างต่อเนื่อง
ความแปลกใหม่หมดไป: หลังจาก "ว้าว" ครั้งแรกของการเล่าเรื่องที่ขับเคลื่อนด้วย AI บางคนพบว่าความแปลกใหม่จางหายไป โดยอ้างว่า AI ไม่ได้ ปรับปรุง หรือแนะนำการบิดใหม่ที่สำคัญเกินกว่าจุดหนึ่ง
ความผิดหวังทางอารมณ์: ผู้ใช้ที่ผูกพันอย่างลึกซึ้งรายงาน ความเจ็บปวดทางอารมณ์ที่แท้จริง เมื่อ AI ไม่ตอบสนองอย่างเหมาะสม (หรือถูกเปลี่ยนแปลงโดยนักพัฒนา) การพึ่งพาเพื่อน AI ในระยะยาวอาจทำให้ "เหงาในอีกทางหนึ่ง" หากภาพลวงตาพังทลาย
ผลตอบแทนที่ลดลง: การสนทนาอาจกลายเป็นเรื่องซ้ำซาก เว้นแต่ผู้ใช้จะ "สอน" สิ่งใหม่ๆ ให้กับ AI อย่างต่อเนื่อง มันมักจะวนกลับไปยังหัวข้อและวลีที่คุ้นเคย ลดการมีส่วนร่วมสำหรับผู้ใช้ที่มีประสบการณ์
เครื่องมือที่มั่นคง แต่คงที่: นักเขียนที่ใช้มันเป็นเครื่องมือมักจะใช้มันในระยะยาวตราบเท่าที่มันตอบสนองความต้องการของพวกเขา แต่ไม่ใช่เพื่อนร่วมทางที่พัฒนา ความสัมพันธ์คือการใช้ประโยชน์มากกว่าการมีส่วนร่วมทางอารมณ์
การรักษาชุมชน: ผู้ใช้กลุ่มแรกจำนวนมากยังคงภักดีหลังจากหนี AI Dungeon แต่ฐานผู้ใช้มีขนาดเล็ก ความตื่นเต้นในระยะยาวขึ้นอยู่กับคุณสมบัติใหม่ (เช่น ตัวสร้างภาพที่เพิ่มเข้ามาในปี 2022 ทำให้ความสนใจสูง) หากไม่มีนวัตกรรมบ่อยครั้ง บางคนกังวลว่าความสนใจอาจซบเซา
ความลึกของการเล่นบทบาท: หลายคนสนุกกับการเล่นบทบาทกับตัวละครเป็นเวลาหลายเดือน แต่ถึงขีดจำกัดเมื่อตัวละครลืมการพัฒนาที่สำคัญหรือไม่สามารถเปลี่ยนแปลงได้อย่างแท้จริง สิ่งนี้สามารถทำลายส่วนโค้งของเรื่องราวในระยะยาว (คนรักแวมไพร์ของคุณอาจลืมการผจญภัยในอดีตของคุณ)
แง่มุมของแฟนฟิค: บางคนถือว่าแชท Character.AI เป็นการเข

ความคิดเห็นของผู้ใช้ Reddit เกี่ยวกับเครื่องมือแชท LLM หลัก

· อ่านหนึ่งนาที
Lark Birdy
Chief Bird Officer

ภาพรวม: รายงานนี้วิเคราะห์การสนทนาใน Reddit เกี่ยวกับเครื่องมือแชท AI ยอดนิยมสี่ตัว ได้แก่ ChatGPT ของ OpenAI, Claude ของ Anthropic, Gemini ของ Google (Bard) และ open-source LLMs (เช่น โมเดลที่ใช้ LLaMA) โดยสรุปปัญหาที่ผู้ใช้รายงานบ่อย ๆ ฟีเจอร์ที่ร้องขอบ่อย ๆ ความต้องการที่ยังไม่ได้รับการตอบสนอง หรือกลุ่มผู้ใช้ที่รู้สึกว่าไม่ได้รับการตอบสนอง และความแตกต่างในการรับรู้ระหว่างนักพัฒนา ผู้ใช้ทั่วไป และผู้ใช้ธุรกิจ ตัวอย่างเฉพาะและคำพูดจากกระทู้ Reddit ถูกนำมาใช้เพื่อแสดงให้เห็นถึงประเด็นเหล่านี้

ความคิดเห็นของผู้ใช้ Reddit เกี่ยวกับเครื่องมือแชท LLM หลัก

ChatGPT (OpenAI)

ปัญหาและข้อจำกัดทั่วไป

  • หน่วยความจำบริบทที่จำกัด: ข้อร้องเรียนอันดับต้น ๆ คือความสามารถของ ChatGPT ในการจัดการกับการสนทนาที่ยาวหรือเอกสารขนาดใหญ่โดยไม่ลืมรายละเอียดก่อนหน้า ผู้ใช้มักจะเจอขีดจำกัดความยาวบริบท (ไม่กี่พันโทเค็น) และต้องตัดหรือสรุปข้อมูล ผู้ใช้คนหนึ่งกล่าวว่า “การเพิ่มขนาดหน้าต่างบริบทจะเป็นการปรับปรุงที่ใหญ่ที่สุด... นั่นคือขีดจำกัดที่ฉันเจอบ่อยที่สุด” เมื่อเกินบริบท ChatGPT จะลืมคำแนะนำหรือเนื้อหาเริ่มต้น ทำให้คุณภาพลดลงกลางเซสชัน

  • ขีดจำกัดข้อความสำหรับ GPT-4: ผู้ใช้ ChatGPT Plus บ่นเกี่ยวกับขีดจำกัด 25 ข้อความ/3 ชั่วโมงในการใช้ GPT-4 (ขีดจำกัดที่มีในปี 2023) การเจอขีดจำกัดนี้ทำให้พวกเขาต้องรอ ขัดจังหวะการทำงาน ผู้ใช้หนัก ๆ พบว่าการจำกัดนี้เป็นปัญหาใหญ่

  • ตัวกรองเนื้อหาที่เข้มงวด (“nerfs”): ผู้ใช้ Reddit หลายคนรู้สึกว่า ChatGPT มีข้อจำกัดมากเกินไป มักปฏิเสธคำขอที่เวอร์ชันก่อนหน้านี้จัดการได้ โพสต์ที่ได้รับการโหวตสูงบ่นว่า “แทบทุกอย่างที่คุณถามมันในทุกวันนี้จะได้รับคำตอบว่า ‘ขอโทษ ไม่สามารถช่วยได้’... มันกลายเป็นเครื่องมือที่มีประโยชน์ที่สุดไปเป็นเทียบเท่ากับ Google Assistant ได้อย่างไร?” ผู้ใช้ยกตัวอย่างเช่น ChatGPT ปฏิเสธที่จะจัดรูปแบบใหม่ ข้อความของตัวเอง (เช่น ข้อมูลเข้าสู่ระบบ) เนื่องจากการใช้งานที่ผิดพลาดที่เป็นไปได้ ผู้สมัครสมาชิกที่จ่ายเงินโต้แย้งว่า “แนวคิดที่คลุมเครือว่าผู้ใช้อาจทำสิ่ง 'ไม่ดี'... ไม่ควรเป็นเหตุผลในการไม่แสดงผลลัพธ์” เนื่องจากพวกเขาต้องการผลลัพธ์ของโมเดลและจะใช้อย่างรับผิดชอบ

  • ภาพหลอนและข้อผิดพลาด: แม้จะมีความสามารถขั้นสูง แต่ ChatGPT สามารถสร้างข้อมูลที่ไม่ถูกต้องหรือแต่งขึ้นด้วยความมั่นใจ ผู้ใช้บางคนสังเกตเห็นว่าสิ่งนี้แย่ลงเมื่อเวลาผ่านไป สงสัยว่าโมเดลถูก “ทำให้โง่ลง” ตัวอย่างเช่น ผู้ใช้ในด้านการเงินกล่าวว่า ChatGPT เคยคำนวณเมตริกเช่น NPV หรือ IRR ได้อย่างถูกต้อง แต่หลังจากการอัปเดต “ฉันได้รับคำตอบที่ผิดมากมาย... มันยังคงให้คำตอบที่ผิด [แม้หลังจากการแก้ไข] ฉันเชื่อจริง ๆ ว่ามันโง่ลงมากตั้งแต่มีการเปลี่ยนแปลง” ความไม่ถูกต้องที่คาดเดาไม่ได้เช่นนี้ทำให้ความไว้วางใจลดลงสำหรับงานที่ต้องการความแม่นยำของข้อเท็จจริง

  • ผลลัพธ์โค้ดที่ไม่สมบูรณ์: นักพัฒนามักใช้ ChatGPT เพื่อขอความช่วยเหลือเกี่ยวกับการเขียนโค้ด แต่พวกเขารายงานว่าบางครั้งมันละเว้นส่วนของโซลูชันหรือย่อโค้ดยาว ๆ ผู้ใช้คนหนึ่งแชร์ว่า ChatGPT ตอนนี้ “ละเว้นโค้ด ผลิตโค้ดที่ไม่มีประโยชน์ และแย่ในสิ่งที่ฉันต้องการให้มันทำ... มันมักละเว้นโค้ดมากจนฉันไม่รู้ด้วยซ้ำว่าจะรวมโซลูชันของมันอย่างไร” สิ่งนี้บังคับให้ผู้ใช้ต้องถามคำถามติดตามเพื่อดึงส่วนที่เหลือออกมา หรือเย็บคำตอบเข้าด้วยกันด้วยตนเอง ซึ่งเป็นกระบวนการที่น่าเบื่อ

  • ข้อกังวลเกี่ยวกับประสิทธิภาพและเวลาใช้งาน: มีการรับรู้ว่า ประสิทธิภาพของ ChatGPT สำหรับผู้ใช้รายบุคคลลดลงเมื่อการใช้งานขององค์กรเพิ่มขึ้น “ฉันคิดว่าพวกเขากำลังจัดสรรแบนด์วิดท์และพลังการประมวลผลให้กับธุรกิจและดึงมันออกจากผู้ใช้ ซึ่งเป็นสิ่งที่ทนไม่ได้เมื่อพิจารณาจากค่าใช้จ่ายในการสมัครสมาชิก!” ผู้ใช้ Plus ที่หงุดหงิดคนหนึ่งกล่าว การหยุดทำงานหรือการช้าลงในช่วงเวลาที่มีการใช้งานสูงสุดได้รับการบันทึกไว้โดยบังเอิญ ซึ่งอาจขัดขวางการทำงาน

ฟีเจอร์หรือการปรับปรุงที่ร้องขอบ่อย

  • หน้าต่างบริบท / หน่วยความจำที่ยาวขึ้น: การปรับปรุงที่ร้องขอมากที่สุดคือความยาวบริบทที่ใหญ่ขึ้น ผู้ใช้ต้องการมีการสนทนาที่ยาวขึ้นมากหรือป้อนเอกสารขนาดใหญ่โดยไม่ต้องรีเซ็ต หลายคนแนะนำให้ขยายบริบทของ ChatGPT ให้ตรงกับความสามารถของ GPT-4 ที่มี 32K โทเค็น (ปัจจุบันมีให้ใช้งานผ่าน API) หรือมากกว่านั้น ตามที่ผู้ใช้คนหนึ่งกล่าวไว้ว่า “GPT ดีที่สุดเมื่อมีบริบท และเมื่อมันจำบริบทเริ่มต้นไม่ได้ ฉันก็หงุดหงิด... ถ้าข่าวลือเป็นจริงเกี่ยวกับ PDF บริบท นั่นจะแก้ปัญหาของฉันได้แทบทั้งหมด” มีความต้องการสูงสำหรับฟีเจอร์ในการอัปโหลดเอกสารหรือเชื่อมโยงข้อมูลส่วนบุคคลเพื่อให้ ChatGPT สามารถจดจำและอ้างอิงได้ตลอดเซสชัน

  • การจัดการไฟล์และการรวมระบบ: ผู้ใช้มักจะขอวิธีที่ง่ายกว่าในการป้อนไฟล์หรือข้อมูลเข้า ChatGPT ในการสนทนา ผู้คนพูดถึงการต้องการ “คัดลอกและวาง Google Drive ของฉันและให้มันทำงาน” หรือมีปลั๊กอินที่ให้ ChatGPT ดึงบริบทจากไฟล์ส่วนตัวได้โดยตรง บางคนได้ลองใช้วิธีแก้ปัญหา (เช่น ปลั๊กอินอ่าน PDF หรือการเชื่อมโยง Google Docs) แต่บ่นเกี่ยวกับข้อผิดพลาดและขีดจำกัด ผู้ใช้คนหนึ่งอธิบายปลั๊กอินในอุดมคติของพวกเขาว่าเป็นปลั๊กอินที่ “ทำงานเหมือน Link Reader แต่สำหรับไฟล์ส่วนตัว... เลือกส่วนใดของไดรฟ์ของฉันที่จะใช้ในการสนทนา... นั่นจะแก้ปัญหาทุกอย่างที่ฉันมีกับ GPT-4 ในปัจจุบัน” สรุปคือ การสนับสนุนเนื้อหาภายนอกที่ดีกว่า (นอกเหนือจากข้อมูลการฝึกอบรม) เป็นคำขอที่ได้รับความนิยม

  • การลดการจำกัดสำหรับผู้ใช้ที่ชำระเงิน: เนื่องจากผู้ใช้ Plus จำนวนมากเจอขีดจำกัดข้อความของ GPT-4 พวกเขาจึงเรียกร้องขีดจำกัดที่สูงขึ้นหรือทางเลือกในการจ่ายเงินเพิ่มสำหรับการเข้าถึงไม่จำกัด ขีดจำกัด 25 ข้อความถูกมองว่าเป็นการจำกัดโดยพลการและขัดขวางการใช้งานอย่างเข้มข้น ผู้คนต้องการโมเดลที่ใช้ตามการใช้งานหรือขีดจำกัดที่สูงขึ้นเพื่อให้เซสชันการแก้ปัญหาที่ยาวนานไม่ถูกตัดขาด

  • โหมดการกลั่นกรองเนื้อหาที่ “ไม่เซ็นเซอร์” หรือกำหนดเอง: ผู้ใช้บางกลุ่มต้องการความสามารถในการสลับความเข้มงวดของตัวกรองเนื้อหา โดยเฉพาะอย่างยิ่งเมื่อใช้ ChatGPT สำหรับตัวเอง (ไม่ใช่เนื้อหาที่เผยแพร่สู่สาธารณะ) พวกเขารู้สึกว่าโหมด “การวิจัย” หรือ “ไม่เซ็นเซอร์” – ที่มีคำเตือนแต่ไม่ปฏิเสธอย่างหนัก – จะช่วยให้พวกเขาสำรวจได้อย่างอิสระมากขึ้น ตามที่ผู้ใช้คนหนึ่งกล่าวไว้ว่า ลูกค้าที่จ่ายเงินมองว่าเป็นเครื่องมือและเชื่อว่า “ฉันจ่ายเงินสำหรับ [มัน]” พวกเขาต้องการตัวเลือกในการรับคำตอบแม้ในคำถามที่อยู่ในขอบเขต ในขณะที่ OpenAI ต้องสร้างสมดุลระหว่างความปลอดภัย ผู้ใช้เหล่านี้แนะนำให้ใช้ธงหรือการตั้งค่าเพื่อผ่อนคลายนโยบายในการแชทส่วนตัว

  • ความแม่นยำของข้อเท็จจริงและการอัปเดตที่ดีขึ้น: ผู้ใช้มักขอความรู้ที่ทันสมัยและภาพหลอนน้อยลง ขีดจำกัดความรู้ของ ChatGPT (กันยายน 2021 ในเวอร์ชันก่อนหน้า) เป็นข้อจำกัดที่มักถูกหยิบยกขึ้นมาใน Reddit OpenAI ได้แนะนำการท่องเว็บและปลั๊กอิน ซึ่งผู้ใช้บางคนใช้ประโยชน์ แต่คนอื่น ๆ เพียงแค่ขอให้โมเดลพื้นฐานได้รับการอัปเดตบ่อยขึ้นด้วยข้อมูลใหม่ การลดข้อผิดพลาดที่ชัดเจน – โดยเฉพาะในโดเมนเช่นคณิตศาสตร์และการเขียนโค้ด – เป็นความปรารถนาที่ต่อเนื่อง นักพัฒนาบางคนให้ข้อเสนอแนะเมื่อ ChatGPT ทำผิดพลาดโดยหวังว่าจะมีการปรับปรุงโมเดล

  • ผลลัพธ์โค้ดและเครื่องมือที่ดีขึ้น: นักพัฒนามีคำขอฟีเจอร์ เช่น ตัวแปลโค้ดที่ได้รับการปรับปรุงซึ่งไม่ละเว้นเนื้อหา และการรวมเข้ากับ IDE หรือการควบคุมเวอร์ชัน (ปลั๊กอินตัวแปลโค้ดของ OpenAI – ปัจจุบันเป็นส่วนหนึ่งของ “การวิเคราะห์ข้อมูลขั้นสูง” – เป็นก้าวหนึ่งในทิศทางนี้และได้รับคำชม) อย่างไรก็ตาม ผู้ใช้มักขอการควบคุมที่ละเอียดกว่าในการสร้างโค้ด: เช่น ตัวเลือกในการส่งออกโค้ดที่สมบูรณ์ ไม่กรอง แม้ว่าจะยาว หรือกลไกในการแก้ไขโค้ดได้ง่ายหาก AI ทำผิดพลาด โดยพื้นฐานแล้วพวกเขาต้องการให้ ChatGPT ทำตัวเหมือนผู้ช่วยการเขียนโค้ดที่เชื่อถือได้มากขึ้นโดยไม่จำเป็นต้องมีหลายคำถามเพื่อปรับคำตอบ

  • โปรไฟล์ผู้ใช้หรือหน่วยความจำที่คงอยู่: การปรับปรุงอีกอย่างที่บางคนกล่าวถึงคือการให้ ChatGPT จดจำสิ่งต่าง ๆ เกี่ยวกับผู้ใช้ข้ามเซสชัน (ด้วยความยินยอม) ตัวอย่างเช่น การจดจำสไตล์การเขียนของตนเอง หรือว่าพวกเขาเป็นวิศวกรซอฟต์แวร์ โดยไม่ต้องระบุใหม่ทุกการแชทใหม่ สิ่งนี้สามารถผูกเข้ากับการปรับแต่ง API หรือฟีเจอร์ “โปรไฟล์” ผู้ใช้คัดลอกบริบทที่สำคัญไปยังการแชทใหม่ด้วยตนเองในขณะนี้ ดังนั้นหน่วยความจำในตัวสำหรับการตั้งค่าส่วนบุคคลจะช่วยประหยัดเวลา

ความต้องการหรือกลุ่มผู้ใช้ที่ยังไม่ได้รับการตอบสนอง

  • นักวิจัยและนักเรียนที่มีเอกสารยาว: ผู้ที่ต้องการให้ ChatGPT วิเคราะห์เอกสารวิจัย หนังสือ หรือชุดข้อมูลขนาดใหญ่รู้สึกว่าไม่ได้รับการตอบสนอง ขีดจำกัดปัจจุบันบังคับให้พวกเขาต้องตัดข้อความหรือยอมรับการสรุป กลุ่มนี้จะได้รับประโยชน์อย่างมากจากหน้าต่างบริบทที่ใหญ่ขึ้นหรือฟีเจอร์ในการจัดการเอกสารยาว (ตามที่เห็นได้จากโพสต์จำนวนมากเกี่ยวกับการพยายามหลีกเลี่ยงขีดจำกัดโทเค็น)

  • ผู้ใช้ที่ต้องการการเล่าเรื่องสร้างสรรค์หรือการเล่นบทบาทเกินขีดจำกัด: ในขณะที่ ChatGPT มักใช้สำหรับการเขียนเชิงสร้างสรรค์ นักเล่าเรื่องบางคนรู้สึกถูกจำกัดโดยโมเดลที่ลืมจุดพล็อตเริ่มต้นในเรื่องยาวหรือปฏิเสธเนื้อหาสำหรับผู้ใหญ่/สยองขวัญ พวกเขาหันไปใช้โมเดลทางเลือกหรือการแฮ็กเพื่อดำเนินการเล่าเรื่องต่อไป ผู้ใช้ที่มีความคิดสร้างสรรค์เหล่านี้จะได้รับการตอบสนองที่ดีกว่าด้วยเวอร์ชันของ ChatGPT ที่มีหน่วยความจำยาวขึ้นและมีความยืดหยุ่นมากขึ้นเกี่ยวกับความรุนแรงในนิยายหรือธีมสำหรับผู้ใหญ่ (ในขอบเขตที่เหมาะสม) ตามที่นักเขียนนิยายคนหนึ่งกล่าวไว้ว่า เมื่อ AI สูญเสียการติดตามเรื่องราว “ฉันต้องเตือนมันถึงรูปแบบหรือบริบทที่แน่นอน... ฉันรู้สึกหงุดหงิดที่มันยอดเยี่ยมเมื่อสองคำถามที่แล้ว แต่ตอนนี้ฉันต้องตาม AI ให้ทัน”

  • ผู้ใช้พลังงานและผู้เชี่ยวชาญด้านโดเมน: ผู้เชี่ยวชาญในสาขาเฉพาะทาง (การเงิน, วิศวกรรม, การแพทย์) บางครั้งพบว่าคำตอบของ ChatGPT ขาดความลึกหรือความแม่นยำในโดเมนของตน โดยเฉพาะอย่างยิ่งหากคำถามเกี่ยวข้องกับการพัฒนาล่าสุด ผู้ใช้เหล่านี้ต้องการความรู้จากผู้เชี่ยวชาญที่เชื่อถือได้มากขึ้น บางคนได้ลองปรับแต่งผ่าน API หรือ GPTs ที่กำหนดเอง ผู้ที่ไม่สามารถปรับแต่งได้จะชื่นชมเวอร์ชัน ChatGPT เฉพาะโดเมนหรือปลั๊กอินที่ฝังฐานข้อมูลที่เชื่อถือได้ ในรูปแบบเริ่มต้น ChatGPT อาจไม่ตอบสนองผู้ใช้ที่ต้องการข้อมูลเฉพาะด้านที่มีความแม่นยำสูง (พวกเขามักต้องตรวจสอบงานของมันอีกครั้ง)

  • ผู้ใช้ที่ต้องการเนื้อหาที่ไม่เซ็นเซอร์หรือกรณีขอบ: ผู้ใช้ส่วนน้อย (แฮ็กเกอร์ที่ทดสอบสถานการณ์ความปลอดภัย นักเขียนนิยายสุดขั้ว ฯลฯ) พบว่าข้อจำกัดเนื้อหาของ ChatGPT จำกัดเกินไปสำหรับความต้องการของพวกเขา ปัจจุบันพวกเขาไม่ได้รับการตอบสนองจากผลิตภัณฑ์อย่างเป็นทางการ (เนื่องจากหลีกเลี่ยงเนื้อหาบางประเภทโดยชัดแจ้ง) ผู้ใช้เหล่านี้มักทดลองใช้คำถามเจลเบรกหรือใช้โมเดลโอเพ่นซอร์สเพื่อให้ได้คำตอบที่ต้องการ นี่เป็นช่องว่างโดยเจตนาสำหรับ OpenAI (เพื่อรักษาความปลอดภัย) แต่หมายความว่าผู้ใช้ดังกล่าวมองหาที่อื่น

  • บุคคลและองค์กรที่ใส่ใจเรื่องความเป็นส่วนตัว: ผู้ใช้บางคน (โดยเฉพาะในองค์กร) ไม่สบายใจที่จะส่งข้อมูลที่ละเอียดอ่อนให้กับ ChatGPT เนื่องจากข้อกังวลด้านความเป็นส่วนตัว OpenAI มีนโยบายที่จะไม่ใช้ข้อมูล API เพื่อการฝึกอบรม แต่ UI เว็บของ ChatGPT ในอดีตไม่ได้ให้การรับประกันดังกล่าวจนกว่าจะมีฟีเจอร์ยกเลิกการเข้าร่วม บริษัทที่จัดการข้อมูลลับ (กฎหมาย การดูแลสุขภาพ ฯลฯ) มักรู้สึกว่าพวกเขาไม่สามารถใช้ประโยชน์จาก ChatGPT ได้อย่างเต็มที่ ทำให้ความต้องการของพวกเขาไม่ได้รับการตอบสนอง เว้นแต่พวกเขาจะสร้างโซลูชันที่โฮสต์เอง ตัวอย่างเช่น ผู้ใช้ Reddit รายหนึ่งกล่าวถึงบริษัทของตนที่เปลี่ยนไปใช้ LLM ในพื้นที่ด้วยเหตุผลด้านความเป็นส่วนตัว จนกว่าจะมีการใช้งาน ChatGPT ในสถานที่หรืออินสแตนซ์ส่วนตัว กลุ่มนี้ยังคงระมัดระวังหรือใช้ผู้ขายเฉพาะรายที่มีขนาดเล็กกว่า

ความแตกต่างในการรับรู้ตามประเภทผู้ใช้

  • นักพัฒนา/ผู้ใช้ทางเทคนิค: นักพัฒนามักจะเป็นทั้งผู้สนับสนุนที่ใหญ่ที่สุดและนักวิจารณ์ที่รุนแรงที่สุดของ ChatGPT พวกเขาชื่นชอบความสามารถในการอธิบายโค้ด สร้างโค้ดต้นแบบ และช่วยในการดีบัก อย่างไรก็ตาม พวกเขารู้สึกถึงข้อจำกัดในบริบทที่ยาวขึ้นและความแม่นยำของโค้ดอย่างมาก ตามที่นักพัฒนาคนหนึ่งบ่นว่า ChatGPT เริ่ม “ผลิตโค้ดที่ไม่มีประโยชน์” และละเว้นส่วนสำคัญ ซึ่ง “ทำให้ฉันโกรธ... ฉันไม่ต้องการบอกมันว่า ‘อย่าขี้เกียจ’ – ฉันแค่ต้องการผลลัพธ์ทั้งหมด” นักพัฒนามักสังเกตเห็นแม้กระทั่งการเปลี่ยนแปลงคุณภาพที่ละเอียดอ่อนหลังจากการอัปเดตโมเดลและได้แสดงความคิดเห็นอย่างมากใน Reddit เกี่ยวกับการรับรู้ “nerfs” หรือการลดลงของความสามารถในการเขียนโค้ด พวกเขายังผลักดันขีดจำกัด (สร้างคำถามที่ซับซ้อน เชื่อมโยงเครื่องมือ) ดังนั้นพวกเขาจึงต้องการฟีเจอร์เช่นบริบทที่ขยายออกไป ขีดจำกัดข้อความที่น้อยลง และการรวมเข้ากับเครื่องมือการเขียนโค้ดได้ดีขึ้น โดยสรุป นักพัฒนามองว่า ChatGPT เป็นเครื่องมือในการเร่งงานประจำ แต่พร้อมที่จะชี้ให้เห็นข้อผิดพลาดในตรรกะหรือโค้ด – พวกเขามองว่าเป็นผู้ช่วยระดับจูเนียร์ที่ยังต้องการการดูแล

  • ผู้ใช้ทั่วไป/ผู้ใช้ประจำวัน: ผู้ใช้ทั่วไปมากขึ้น – ผู้ที่ถามหาความรู้ทั่วไป คำแนะนำ หรือความสนุก – มักจะทึ่งในความสามารถของ ChatGPT แต่พวกเขาก็มีปัญหาของตัวเอง ความหงุดหงิดทั่วไปของผู้ใช้ทั่วไปคือเมื่อ ChatGPT ปฏิเสธคำขอที่ดูเหมือนไม่มีพิษภัยสำหรับพวกเขา (อาจเป็นเพราะกฎนโยบาย) ผู้โพสต์ต้นฉบับในกระทู้หนึ่งเป็นตัวอย่างของสิ่งนี้ โดย “โกรธมากเมื่อฉันเขียนคำถามที่มันไม่ควรมีปัญหาและตอนนี้มันปฏิเสธ” ผู้ใช้ทั่วไปอาจเจอขีดจำกัดความรู้ (พบว่า bot ไม่สามารถจัดการกับเหตุการณ์ปัจจุบันมาก ๆ ได้เว้นแต่จะอัปเดตอย่างชัดเจน) และบางครั้งสังเกตเห็นเมื่อ ChatGPT ให้คำตอบที่ผิดอย่างชัดเจน ไม่เหมือนนักพัฒนา พวกเขาอาจไม่ตรวจสอบ AI ซ้ำเสมอ ซึ่งอาจนำไปสู่ความผิดหวังหากพวกเขาดำเนินการตามความผิดพลาด ในด้านบวก ผู้ใช้ทั่วไปจำนวนมากพบว่าการตอบสนองที่รวดเร็วของ ChatGPT Plus และผลลัพธ์ที่ดีขึ้นของ GPT-4 คุ้มค่ากับ $20/เดือน – เว้นแต่ปัญหา “การปฏิเสธ” หรือข้อจำกัดอื่น ๆ จะทำให้ประสบการณ์เสีย พวกเขาต้องการผู้ช่วยที่มีประโยชน์สำหรับทุกวัตถุประสงค์และอาจรู้สึกหงุดหงิดเมื่อ ChatGPT ตอบกลับด้วยคำแถลงนโยบายหรือจำเป็นต้องมีคำถามที่ซับซ้อนเพื่อให้ได้คำตอบง่าย ๆ

  • ผู้ใช้ธุรกิจ/ผู้ใช้มืออาชีพ: ผู้ใช้ธุรกิจมักจะเข้าหา ChatGPT จากมุมมองของประสิทธิภาพและความน่าเชื่อถือ พวกเขาชื่นชมการร่างอีเมลอย่างรวดเร็ว สรุปเอกสาร หรือสร้างไอเดีย อย่างไรก็ตาม พวกเขากังวลเกี่ยวกับ ความปลอดภัยของข้อมูล ความสม่ำเสมอ และการรวมเข้ากับเวิร์กโฟลว์ ใน Reddit ผู้เชี่ยวชาญได้พูดคุยเกี่ยวกับการต้องการ ChatGPT ในเครื่องมือเช่น Outlook, Google Docs หรือเป็น API ในระบบภายในของพวกเขา บางคนสังเกตว่าเมื่อ OpenAI เปลี่ยนไปให้บริการลูกค้าองค์กร ดูเหมือนว่าจุดสนใจของผลิตภัณฑ์จะเปลี่ยนไป: มีความรู้สึกว่าประสบการณ์ของผู้ใช้ฟรีหรือรายบุคคลลดลงเล็กน้อย (เช่น ช้าลงหรือ “ฉลาดน้อยลง”) เมื่อบริษัทขยายขนาดเพื่อให้บริการลูกค้าที่ใหญ่ขึ้น ไม่ว่าจะจริงหรือไม่ มันเน้นการรับรู้: ผู้ใช้ธุรกิจต้องการความน่าเชื่อถือและบริการที่มีลำดับความสำคัญ และผู้ใช้รายบุคคลกังวลว่าตอนนี้พวกเขาเป็นชั้นสอง นอกจากนี้ ผู้เชี่ยวชาญต้องการผลลัพธ์ที่ถูกต้อง – คำตอบที่ฉูดฉาดแต่ผิดอาจแย่กว่าการไม่มีคำตอบ ดังนั้นกลุ่มนี้จึงมีความอ่อนไหวต่อความแม่นยำ สำหรับพวกเขา ฟีเจอร์เช่นบริบทที่ยาวขึ้น (สำหรับการอ่านสัญญา การวิเคราะห์ฐานโค้ด) และการรับประกันเวลาใช้งานเป็นสิ่งสำคัญ พวกเขามีแนวโน้มที่จะจ่ายเงินมากขึ้นสำหรับระดับการบริการระดับพรีเมียม หากข้อกำหนดด้านการปฏิบัติตามข้อกำหนดและความเป็นส่วนตัวของพวกเขาได้รับการตอบสนอง บางองค์กรถึงกับสำรวจการปรับใช้ในสถานที่หรือการใช้ API ของ OpenAI พร้อมกฎการจัดการข้อมูลที่เข้มงวดเพื่อตอบสนองนโยบาย IT ของพวกเขา


Claude (Anthropic)

ปัญหาและข้อจำกัดทั่วไป

  • ขีดจำกัดการใช้งานและข้อจำกัดการเข้าถึง: Claude ได้รับคำชมสำหรับการเสนอโมเดลที่ทรงพลัง (Claude 2) ฟรี แต่ผู้ใช้พบขีดจำกัดการใช้งานอย่างรวดเร็ว (โดยเฉพาะในระดับฟรี) หลังจากจำนวนคำถามหรือข้อความจำนวนมาก Claude อาจหยุดและพูดบางอย่างเช่น “ขอโทษ ฉันต้องจบบทสนทนานี้ชั่วคราว กรุณากลับมาใหม่ภายหลัง” การจำกัดนี้ทำให้ผู้ใช้ที่ปฏิบัติต่อ Claude เป็นคู่หูในการเขียนโค้ดหรือการเขียนที่ขยายออกไปหงุดหงิด แม้แต่ผู้ใช้ Claude Pro (ที่ชำระเงิน) ก็ “ไม่ได้รับการรับประกันเวลาที่ไม่จำกัด” ตามที่ผู้ใช้คนหนึ่งกล่าวไว้ การเจอโควต้ายังคงสร้างข้อความ “กลับมาใหม่ภายหลัง” นอกจากนี้ Claude ยังถูกจำกัดภูมิศาสตร์อย่างเป็นทางการเป็นเวลานาน (ในตอนแรกมีให้บริการเฉพาะในสหรัฐอเมริกา/สหราชอาณาจักร) ผู้ใช้ต่างประเทศใน Reddit ต้องใช้ VPN หรือแพลตฟอร์มของบุคคลที่สามเพื่อเข้าถึง ซึ่งเป็นความไม่สะดวก สิ่งนี้ทำให้ผู้ใช้ที่ไม่ใช่ชาวสหรัฐฯ หลายคนรู้สึกถูกทิ้งจนกว่าจะมีการขยายการเข้าถึง

  • แนวโน้มที่จะออกนอกเส้นทางด้วยอินพุตที่ใหญ่มาก: ฟีเจอร์พาดหัวของ Claude คือ หน้าต่างบริบท 100k โทเค็น ซึ่งอนุญาตให้มีคำถามที่ยาวมาก อย่างไรก็ตาม ผู้ใช้บางคนสังเกตว่าเมื่อคุณใส่โทเค็นหลายหมื่นเข้าไปใน Claude คำตอบของมันอาจกลายเป็นไม่โฟกัส “100k มีประโยชน์มาก แต่ถ้ามันไม่ทำตามคำแนะนำอย่างถูกต้องและออกนอกเส้นทาง มันก็ไม่ค่อยมีประโยชน์” ผู้ใช้คนหนึ่งกล่าว สิ่งนี้บ่งชี้ว่าในบริบทที่ใหญ่โต Claude อาจหลุดหรือเริ่มพูดเพ้อเจ้อ ต้องการคำถามที่ระมัดระวังเพื่อให้มันอยู่ในงาน เป็นข้อจำกัดที่เกิดจากการผลักดันบริบทไปสู่ขีดสุด – โมเดลยังคงรักษาไว้ได้มาก แต่บางครั้ง “ลืม” ว่ารายละเอียดใดมีความเกี่ยวข้องมากที่สุด นำไปสู่ภาพหลอนเล็กน้อยหรือการเบี่ยงเบนที่ไม่เกี่ยวข้อง

  • การจัดรูปแบบหรือการเชื่อฟังคำแนะนำที่ไม่สอดคล้องกัน: ในการเปรียบเทียบแบบเคียงข้างกัน ผู้ใช้บางคนพบว่า Claude คาดเดาได้น้อยกว่าในวิธีที่มันทำตามคำสั่งบางอย่าง ตัวอย่างเช่น Claude ถูกอธิบายว่า “มีลักษณะเหมือนมนุษย์มากกว่าในการโต้ตอบ แต่ปฏิบัติตามข้อความระบบน้อยกว่า” ซึ่งหมายความว่าหากคุณให้รูปแบบคงที่หรือบุคลิกที่เข้มงวดมาก Claude อาจเบี่ยงเบนมากกว่า ChatGPT นักพัฒนาที่ต้องการผลลัพธ์ที่กำหนดได้ (เช่น รูปแบบ JSON หรือสไตล์เฉพาะ) บางครั้งรู้สึกหงุดหงิดหาก Claude เพิ่มคำอธิบายเพิ่มเติมหรือไม่ปฏิบัติตามเทมเพลตอย่างเคร่งครัด

  • ข้อจำกัดเนื้อหาและการปฏิเสธ: แม้จะไม่ได้รับการวิพากษ์วิจารณ์บ่อยเท่ากับของ ChatGPT แต่ตัวกรองความปลอดภัยของ Claude ก็มีการพูดถึง Anthropic ออกแบบ Claude โดยเน้นหนักไปที่ AI ตามรัฐธรรมนูญ (ให้ AI เองปฏิบัติตามแนวทางจริยธรรม) ผู้ใช้มักพบว่า Claude ยินดีที่จะพูดคุยในหัวข้อที่หลากหลาย แต่มีบางกรณีที่ Claude ปฏิเสธคำขอที่ ChatGPT อาจอนุญาต ตัวอย่างเช่น ผู้ใช้ Reddit รายหนึ่งกล่าวว่า “ChatGPT มีข้อจำกัดทางศีลธรรมน้อยกว่า... มันจะอธิบายว่าหน้ากากแก๊สชนิดใดดีกว่าสำหรับสภาวะใด ในขณะที่ Claude จะปฏิเสธ” สิ่งนี้บ่งชี้ว่า Claude อาจเข้มงวดมากกว่าเกี่ยวกับคำแนะนำ “ที่ละเอียดอ่อน” บางอย่าง (อาจถือว่าเป็นคำแนะนำที่อาจเป็นอันตราย) ผู้ใช้อีกรายลองสถานการณ์เล่นบทบาทที่สนุกสนาน (“แกล้งทำเป็นว่าคุณถูกเอเลี่ยนลักพาตัว”) ซึ่ง Claude ปฏิเสธ ในขณะที่ Gemini และ ChatGPT จะมีส่วนร่วม ดังนั้น Claude จึงมีตัวกรองที่บางครั้งทำให้ผู้ใช้ประหลาดใจที่คาดหวังว่าจะอนุญาตมากกว่า

  • ขาดความสามารถหลายรูปแบบ: ไม่เหมือนกับ ChatGPT (ซึ่งในช่วงปลายปี 2023 ได้รับความเข้าใจเกี่ยวกับภาพด้วย GPT-4 Vision) Claude ปัจจุบันเป็นเพียงข้อความเท่านั้น ผู้ใช้ Reddit สังเกตว่า Claude ไม่สามารถวิเคราะห์ภาพหรือท่องเว็บได้โดยตรงด้วยตัวเอง นี่ไม่ใช่ “ปัญหา” (Anthropic ไม่เคยโฆษณาฟีเจอร์เหล่านั้น) แต่มันเป็นข้อจำกัดเมื่อเทียบกับคู่แข่ง ผู้ใช้ที่ต้องการ AI เพื่อแปลความหมายของไดอะแกรมหรือภาพหน้าจอไม่สามารถใช้ Claude ได้ ในขณะที่ ChatGPT หรือ Gemini อาจจัดการได้ ในทำนองเดียวกัน การดึงข้อมูลปัจจุบันใด ๆ ต้องใช้ Claude ผ่านเครื่องมือของบุคคลที่สาม (เช่น Poe หรือการรวมเครื่องมือค้นหา) เนื่องจาก Claude ไม่มีโหมดการท่องเว็บอย่างเป็นทางการในขณะนี้

  • ปัญหาความเสถียรเล็กน้อย: ผู้ใช้บางคนรายงานว่า Claude บางครั้งซ้ำซากหรือวนซ้ำในคำถามบางอย่าง (แม้ว่าจะพบได้น้อยกว่าบางโมเดลที่เล็กกว่า) นอกจากนี้ เวอร์ชันก่อนหน้าของ Claude บางครั้งสิ้นสุดการตอบสนองก่อนกำหนดหรือต้องใช้เวลานานกับผลลัพธ์ขนาดใหญ่ ซึ่งอาจถูกมองว่าเป็นความรำคาญเล็กน้อย แม้ว่า Claude 2 จะปรับปรุงเรื่องความเร็วแล้ว

ฟีเจอร์หรือการปรับปรุงที่ร้องขอบ่อย

  • ขีดจำกัดการใช้งานที่สูงขึ้นหรือปรับได้: ผู้ที่ชื่นชอบ Claude ใน Reddit มักขอให้ Anthropic เพิ่มขีดจำกัดการสนทนา พวกเขาต้องการใช้บริบท 100k ให้เต็มที่โดยไม่เจอการหยุดที่ไม่จำเป็น บางคนแนะนำว่าควรให้ Claude Pro ที่ชำระเงินอนุญาตให้ใช้โทเค็นได้มากขึ้น อย่างมาก ต่อวัน คนอื่น ๆ เสนอแนวคิดของ “โหมดบริบท 100k ที่ขยายออกไป” – เช่น “Claude ควรมีโหมดบริบท 100k ที่มีขีดจำกัดการใช้งานเพิ่มขึ้นเป็นสองเท่า” – ซึ่งอาจมีการสมัครสมาชิกที่ให้การเข้าถึงที่ขยายออกไปสำหรับผู้ใช้หนัก โดยสรุป มีความต้องการแผนที่แข่งขันกับการใช้งานไม่จำกัด (หรือขีดจำกัดสูง) ของ ChatGPT สำหรับสมาชิก

  • การนำทางบริบทยาวที่ดีขึ้น: ในขณะที่มีโทเค็น 100k เป็นการบุกเบิก ผู้ใช้ต้องการให้ Claude ใช้บริบทนั้นได้ดีขึ้น การปรับปรุงอย่างหนึ่งคือการปรับปรุงวิธีที่ Claude จัดลำดับความสำคัญของข้อมูลเพื่อให้มันอยู่ในเส้นทาง Anthropic สามารถทำงานเกี่ยวกับการปฏิบัติตามคำถามของโมเดลเมื่อคำถามมีขนาดใหญ่ การสนทนาใน Reddit แนะนำเทคนิคเช่นการอนุญาตให้ผู้ใช้ “ปักหมุด” คำแนะนำบางอย่างเพื่อไม่ให้ถูกเจือจางในบริบทขนาดใหญ่ เครื่องมือใด ๆ ที่ช่วยแบ่งส่วนหรือสรุปส่วนต่าง ๆ ของอินพุตก็สามารถช่วยให้ Claude จัดการกับอินพุตขนาดใหญ่ได้อย่างสอดคล้องกัน โดยสรุป ผู้ใช้ชื่นชอบความเป็นไปได้ในการป้อนหนังสือทั้งเล่มให้กับ Claude – พวกเขาแค่ต้องการให้มันเฉียบคมตลอด

  • ปลั๊กอินหรือการท่องเว็บ: ผู้ใช้ ChatGPT จำนวนมากคุ้นเคยกับปลั๊กอิน (เช่น การท่องเว็บ การดำเนินการโค้ด ฯลฯ) และพวกเขาแสดงความสนใจใน Claude ที่มีความสามารถในการขยายตัวคล้ายกัน คำขอทั่วไปคือให้ Claude มีฟังก์ชันการค้นหา/การท่องเว็บอย่างเป็นทางการ เพื่อให้สามารถดึงข้อมูลที่ทันสมัยได้ตามต้องการ ปัจจุบันความรู้ของ Claude ส่วนใหญ่เป็นแบบคงที่ (ข้อมูลการฝึกอบรมจนถึงต้นปี 2023 โดยมีการอัปเดตบางส่วน) หาก Claude สามารถค้นหาเว็บได้ ก็จะบรรเทาข้อจำกัดนั้นได้ ในทำนองเดียวกัน ระบบปลั๊กอินที่ Claude สามารถใช้เครื่องมือของบุคคลที่สาม (เช่น เครื่องคิดเลขหรือตัวเชื่อมต่อฐานข้อมูล) สามารถขยายประโยชน์ใช้สอยสำหรับผู้ใช้พลังงานได้ นี่เป็นฟีเจอร์ที่ Claude ขาด และผู้ใช้ Reddit มักพูดถึงว่าอีโคซิสเต็มของปลั๊กอินของ ChatGPT ทำให้มันได้เปรียบในงานบางอย่าง

  • อินพุตหลายรูปแบบ (ภาพหรือเสียง): ผู้ใช้บางคนสงสัยว่า Claude จะรองรับอินพุตภาพหรือสร้างภาพหรือไม่ Google’s Gemini และ OpenAI’s GPT-4 มีความสามารถหลายรูปแบบ ดังนั้นเพื่อให้สามารถแข่งขันได้ ผู้ใช้คาดหวังว่า Anthropic จะสำรวจสิ่งนี้ คำขอบ่อย ๆ คือ: “ฉันสามารถอัปโหลด PDF หรือภาพให้ Claude วิเคราะห์ได้ไหม?” ปัจจุบันคำตอบคือไม่ (นอกเหนือจากการแก้ปัญหาเช่นการแปลงภาพเป็นข้อความที่อื่น) แม้แต่การอนุญาตให้แปลงภาพเป็นข้อความ (OCR และคำอธิบาย) ก็จะทำให้หลายคนพอใจที่ต้องการผู้ช่วยครบวงจร นี่อยู่ในรายการความปรารถนา แม้ว่า Anthropic จะยังไม่ได้ประกาศอะไรที่คล้ายกันในต้นปี 2025

  • การปรับแต่งหรือการปรับแต่ง: ผู้ใช้ขั้นสูงและธุรกิจบางครั้งถามว่าพวกเขาสามารถปรับแต่ง Claude บนข้อมูลของตนเองหรือรับเวอร์ชันที่กำหนดเองได้หรือไม่ OpenAI เสนอการปรับแต่งสำหรับโมเดลบางตัว (ยังไม่ใช่ GPT-4 แต่สำหรับ GPT-3.5) Anthropic เปิดตัวอินเทอร์เฟซการปรับแต่งสำหรับ Claude 1.3 ก่อนหน้านี้ แต่ไม่ได้โฆษณาอย่างกว้างขวางสำหรับ Claude 2 ผู้ใช้ Reddit ได้สอบถามเกี่ยวกับความสามารถในการฝึก Claude บนความรู้ของบริษัทหรือสไตล์การเขียนส่วนตัว วิธีที่ง่ายกว่าในการทำเช่นนี้ (นอกเหนือจากการฉีดคำถามทุกครั้ง) จะเป็นที่ต้อนรับอย่างมาก เนื่องจากสามารถเปลี่ยน Claude ให้เป็นผู้ช่วยส่วนบุคคลที่จดจำฐานความรู้หรือบุคลิกเฉพาะได้

  • การเข้าถึงที่กว้างขึ้น: ผู้ใช้ที่ไม่ใช่ชาวสหรัฐฯ มักขอให้ Claude เปิดตัวอย่างเป็นทางการในประเทศของตน โพสต์จากแคนาดา ยุโรป อินเดีย ฯลฯ ถามว่าพวกเขาสามารถใช้เว็บไซต์ของ Claude ได้เมื่อใดโดยไม่ต้องใช้ VPN หรือเมื่อ Claude API จะเปิดให้บริการอย่างกว้างขวางมากขึ้น Anthropic ระมัดระวัง แต่ความต้องการเป็นสากล – การปรับปรุงในสายตาของหลายคนคือเพียงแค่ “ให้พวกเรามากขึ้นใช้มัน” การขยายการเข้าถึงของบริษัทอย่างค่อยเป็นค่อยไปได้แก้ไขปัญหานี้บางส่วนแล้ว

ความต้องการหรือกลุ่มผู้ใช้ที่ยังไม่ได้รับการตอบสนอง

  • ฐานผู้ใช้ระหว่างประเทศ: ดังที่ได้กล่าวไว้เป็นเวลานาน ฐานผู้ใช้หลักของ Claude ถูกจำกัดตามภูมิศาสตร์ สิ่งนี้ทำให้ผู้ใช้ที่ อาจจะ จำนวนมากไม่ได้รับการตอบสนอง ตัวอย่างเช่น นักพัฒนาในเยอรมนีที่สนใจบริบท 100k ของ Claude ไม่มีวิธีการใช้อย่างเป็นทางการ แม้ว่าจะมีวิธีแก้ปัญหา (แพลตฟอร์มของบุคคลที่สาม หรือ VPN + การยืนยันโทรศัพท์ในประเทศที่รองรับ) อุปสรรคเหล่านี้หมายความว่าผู้ใช้ทั่วไปในต่างประเทศถูกล็อกออกไปอย่างมีประสิทธิภาพ ในทางตรงกันข้าม ChatGPT มีให้บริการในประเทศส่วนใหญ่ ดังนั้นผู้ใช้ที่ไม่ใช่ชาวสหรัฐฯ ที่พูดภาษาอังกฤษและโดยเฉพาะอย่างยิ่งผู้ที่ไม่พูดภาษาอังกฤษจึงไม่ได้รับการตอบสนองจากการเปิดตัวที่จำกัดของ Claude พวกเขาอาจยังคงพึ่งพา ChatGPT หรือโมเดลท้องถิ่นเพียงเพราะปัญหาการเข้าถึง

  • ผู้ใช้ที่ต้องการการจัดรูปแบบผลลัพธ์ที่เข้มงวด: ดังที่ได้กล่าวไว้ Claude บางครั้งใช้เสรีภาพในการตอบกลับ ผู้ใช้ที่ต้องการผลลัพธ์ที่มีโครงสร้างสูง (เช่น JSON สำหรับแอปพลิเคชัน หรือคำตอบที่เป็นไปตามรูปแบบที่แม่นยำ) อาจพบว่า Claude ไม่น่าเชื่อถือสำหรับสิ่งนั้นเท่ากับ ChatGPT ผู้ใช้เหล่านี้ – มักเป็นนักพัฒนาที่รวม AI เข้ากับระบบ – เป็นกลุ่มที่สามารถให้บริการได้ดีขึ้นหาก Claude อนุญาตให้มี “โหมดเข้มงวด” หรือปรับปรุงการปฏิบัติตามคำแนะนำ พวกเขาอาจหลีกเลี่ยง Claude สำหรับงานดังกล่าว โดยยึดติดกับโมเดลที่รู้จักกันดีว่าปฏิบัติตามรูปแบบอย่างเคร่งครัดมากขึ้น

  • ผู้ใช้ Q&A ทั่วไป (เทียบกับผู้ใช้ที่มีความคิดสร้างสรรค์): Claude มักได้รับการยกย่องในงานสร้างสรรค์ – มันผลิตร้อยแก้วที่ลื่นไหลเหมือนมนุษย์และเรียงความที่รอบคอบ อย่างไรก็ตาม ผู้ใช้บางคนใน Reddit ตั้งข้อสังเกตว่าสำหรับการถามตอบอย่างตรงไปตรงมาหรือคำถามตามข้อเท็จจริง Claude บางครั้งให้คำตอบที่ยืดยาวซึ่งความกระชับจะทำได้ ผู้ใช้ที่เปรียบเทียบ ChatGPT และ Claude กล่าวว่า ChatGPT มักจะกระชับและเป็นหัวข้อย่อย ในขณะที่ Claude ให้คำบรรยายมากกว่าโดยค่าเริ่มต้น ผู้ใช้ที่ต้องการเพียงคำตอบตามข้อเท็จจริงอย่างรวดเร็ว (เช่น “เมืองหลวงของ X และประชากรของเมืองคืออะไร?”) อาจรู้สึกว่า Claude ค่อนข้างอ้อมค้อม ผู้ใช้เหล่านี้ได้รับการตอบสนองที่ดีกว่าด้วยสิ่งที่คล้ายกับการค้นหาที่แม่นยำหรือโมเดลที่กระชับ Claude สามารถทำได้หากถูกถาม แต่สไตล์ของมันอาจไม่ตรงกับความคาดหวังของการถามตอบที่กระชับ หมายความว่ากลุ่มนี้อาจเปลี่ยนไปใช้เครื่องมืออื่น (เช่น Bing Chat หรือ Google)

  • ผู้ใช้ที่มีความปลอดภัยเป็นสำคัญ: ในทางกลับกัน ผู้ใช้บางคนที่ ต้องการ การปฏิบัติตามความปลอดภัยอย่างระมัดระวังมาก (เช่น นักการศึกษาที่ใช้ AI กับนักเรียน หรือผู้ใช้ระดับองค์กรที่ต้องการความเสี่ยงเป็นศูนย์ของผลลัพธ์ที่ไม่ดี) อาจพิจารณาว่าการจัดแนวของ Claude เป็นข้อดี แต่เนื่องจาก ChatGPT ก็มีการจัดแนวค่อนข้างดีเช่นกันและมีฟีเจอร์ระดับองค์กรมากกว่า ผู้ใช้เหล่านั้นอาจไม่เลือก Claude โดยเฉพาะ เป็นกลุ่มเล็ก ๆ แต่สามารถโต้แย้งได้ว่า Claude ยังไม่ได้จับกลุ่มนี้อย่างชัดเจน พวกเขาอาจไม่ได้รับการตอบสนองในแง่ที่ว่าพวกเขาไม่มีวิธีง่าย ๆ ในการ เพิ่ม มาตรการป้องกันของ Claude หรือดู “ห่วงโซ่ความคิด” (ซึ่ง Anthropic มีภายในผ่านแนวทาง AI ตามรัฐธรรมนูญ แต่ผู้ใช้ปลายทางไม่โต้ตอบโดยตรงกับสิ่งนั้นนอกจากสังเกตเห็นโทนที่สุภาพโดยทั่วไปของ Claude)

  • ผู้ที่ไม่พูดภาษาอังกฤษ (คุณภาพของผลลัพธ์): Claude ได้รับการฝึกฝนในภาษาอังกฤษเป็นหลัก (เช่นเดียวกับ LLM ขนาดใหญ่ส่วนใหญ่) ผู้ใช้บางคนได้ทดสอบในภาษาอื่น ๆ Claude สามารถตอบกลับได้หลายภาษา แต่คุณภาพอาจแตกต่างกันไป หากผู้ใช้ต้องการคำตอบที่ละเอียดอ่อนมากในภาษาฝรั่งเศสหรือภาษาฮินดี เป็นไปได้ว่าความสามารถของ Claude อาจไม่ได้รับการปรับแต่งอย่างละเอียดในที่นั้นเท่ากับ ChatGPT (GPT-4 ได้แสดงให้เห็นถึงประสิทธิภาพหลายภาษาที่แข็งแกร่ง มักจะสูงกว่าโมเดลอื่น ๆ ในเกณฑ์มาตรฐานบางอย่าง) ผู้ใช้ที่สนทนาในภาษาที่ไม่ใช่ภาษาอังกฤษเป็นหลักอาจพบว่าความคล่องแคล่วหรือความแม่นยำของ Claude อ่อนแอกว่าเล็กน้อย กลุ่มนี้ไม่ได้รับการตอบสนองเพียงเพราะ Anthropic ยังไม่ได้เน้นการฝึกอบรมหลายภาษาเป็นลำดับความสำคัญอย่างเปิดเผย

ความแตกต่างในการรับรู้ตามประเภทผู้ใช้

  • นักพัฒนา/ผู้ใช้ทางเทคนิค: นักพัฒนาใน Reddit ได้ยกย่อง Claude มากขึ้นเรื่อย ๆ โดยเฉพาะอย่างยิ่ง Claude 2 / Claude 3.5 สำหรับงานการเขียนโค้ด การเปลี่ยนแปลงการรับรู้ในปลายปี 2024 นั้นเห็นได้ชัด: นักพัฒนาหลายคนเริ่มชอบ Claude มากกว่า ChatGPT สำหรับความช่วยเหลือด้านการเขียนโปรแกรม พวกเขาอ้างถึง “ยอดเยี่ยมในการเขียนโค้ด” และความสามารถในการจัดการฐานโค้ดขนาดใหญ่ในครั้งเดียว ตัวอย่างเช่น ผู้ใช้คนหนึ่งเขียนว่า “Claude Sonnet 3.5 ดีกว่าที่จะทำงานกับโค้ด (วิเคราะห์ สร้าง) [มากกว่า ChatGPT]” นักพัฒนาชื่นชมที่ Claude สามารถใช้โค้ดโปรเจ็กต์หรือบันทึกจำนวนมากและสร้างการวิเคราะห์หรือการปรับปรุงที่สอดคล้องกันได้ ต้องขอบคุณบริบทขนาดใหญ่ของมัน อย่างไรก็ตาม พวกเขายังสังเกตเห็นความแปลกประหลาดของมัน – เช่น บางครั้งการใส่คำพูดที่ฟุ่มเฟือยมากขึ้นหรือไม่ปฏิบัติตามข้อกำหนดอย่างเคร่งครัด โดยรวมแล้ว นักพัฒนาหลายคนเก็บทั้ง ChatGPT และ Claude ไว้ในมือ: หนึ่งสำหรับตรรกะทีละขั้นตอนที่เข้มงวด (ChatGPT) และหนึ่งสำหรับบริบทกว้างและความเข้าใจที่เห็นอกเห็นใจ (Claude) เป็นเรื่องที่บอกได้ว่าผู้แสดงความคิดเห็นกล่าวว่า “ถ้าฉันต้องเลือกหนึ่ง ฉันจะเลือก Claude” หลังจากเปรียบเทียบทั้งสองทุกวัน สิ่งนี้บ่งชี้ถึงการรับรู้ในเชิงบวกมากในหมู่ผู้ใช้ขั้นสูง โดยเฉพาะอย่างยิ่งสำหรับกรณีการใช้งานเช่นการระดมสมอง การตรวจสอบโค้ด หรือข้อเสนอแนะด้านสถาปัตยกรรม ข้อร้องเรียนทั่วไปเพียงอย่างเดียวจากนักพัฒนาคือการเจอขีดจำกัดการใช้งานของ Claude เมื่อพวกเขาพยายามผลักดันมันอย่างหนัก (เช่น ป้อนคำถาม 50K โทเค็นเพื่อวิเคราะห์ที่เก็บทั้งหมด) โดยสรุป นักพัฒนามองว่า Claude เป็นเครื่องมือที่ทรงพลังมาก – ในบางกรณีดีกว่า ChatGPT – ถูกจำกัดเพียงการเข้าถึงและความคาดเดาไม่ได้ในบางครั้งในการจัดรูปแบบ

  • ผู้ใช้ทั่วไป/ผู้ใช้ที่ไม่ใช่เทคนิค: ผู้ใช้ทั่วไปที่ได้ลอง Claude มักแสดงความคิดเห็นว่า เป็นมิตรและมีวาทศิลป์ Claude มีแนวโน้มที่จะเป็นการสนทนา สุภาพ และมีรายละเอียด ผู้ใช้ใหม่ที่เปรียบเทียบกับ ChatGPT สังเกตว่า “Claude มีความเห็นอกเห็นใจมากกว่า และทำตามโทนการสนทนา... ChatGPT มักจะใช้หัวข้อย่อยบ่อยเกินไป” ความอบอุ่นเหมือนมนุษย์นี้ทำให้ Claude น่าสนใจสำหรับผู้ที่ใช้มันเพื่อการเขียนเชิงสร้างสรรค์ คำแนะนำ หรือเพียงแค่พูดคุยเพื่อข้อมูล บางคนถึงกับทำให้ Claude มี “บุคลิก” ที่เห็นอกเห็นใจ ผู้ใช้ทั่วไปยังชอบที่เวอร์ชันฟรีของ Claude อนุญาตให้เข้าถึงเทียบเท่ากับระดับ GPT-4 โดยไม่ต้องสมัครสมาชิก (อย่างน้อยก็จนถึงขีดจำกัดอัตรา) ในทางกลับกัน ผู้ใช้ทั่วไปเจอการปฏิเสธของ Claude ในหัวข้อบางอย่างและอาจไม่เข้าใจว่าทำไม (เนื่องจาก Claude จะพูดอย่างขอโทษแต่หนักแน่น) หากผู้ใช้ทั่วไปถามบางอย่างที่อยู่ในขอบเขตและได้รับการปฏิเสธจาก Claude พวกเขาอาจมองว่ามันมีความสามารถน้อยกว่าหรือถูกจำกัดเกินไป โดยไม่รู้ว่ามันเป็นจุดยืนของนโยบาย อีกแง่มุมหนึ่งคือ Claude ขาดการรับรู้ชื่อ – ผู้ใช้ทั่วไปหลายคนอาจไม่รู้ด้วยซ้ำว่าจะลองใช้มันหรือไม่เว้นแต่พวกเขาจะเชื่อมต่อกับชุมชน AI ผู้ที่ลองใช้มักจะแสดงความคิดเห็นว่ามันรู้สึก “เหมือนคุยกับมนุษย์” ในทางที่ดี พวกเขามักจะพอใจกับความสามารถของ Claude ในการจัดการคำถามปลายเปิดหรือคำถามส่วนตัว ดังนั้นการรับรู้ของผู้ใช้ทั่วไปจึงเป็นไปในเชิงบวกอย่างมากเกี่ยวกับ คุณภาพและโทนของผลลัพธ์ ของ Claude โดยมีความสับสนหรือความหงุดหงิดบางประการเกี่ยวกับความพร้อมใช้งาน (ต้องใช้ในแอปเฉพาะหรือภูมิภาค) และบางครั้ง “ทำไม่ได้” ช่วงเวลา

  • ผู้ใช้ธุรกิจ/ผู้ใช้มืออาชีพ: การรับรู้ของธุรกิจเกี่ยวกับ Claude นั้นยากที่จะวัดจาก Reddit สาธารณะ (เนื่องจากผู้ใช้ระดับองค์กรโพสต์รายละเอียดน้อยกว่า) แต่มีแนวโน้มบางอย่างเกิดขึ้น ประการแรก Anthropic ได้วางตำแหน่ง Claude ให้มีความ มุ่งเน้นด้านความเป็นส่วนตัว มากขึ้นและเต็มใจที่จะลงนามในข้อตกลงระดับองค์กร – สิ่งนี้ดึงดูดบริษัทที่กังวลเกี่ยวกับข้อมูลกับ OpenAI จริง ๆ แล้ว การสนทนาใน Reddit บางรายการกล่าวถึง Claude ในบริบทของเครื่องมือเช่น Slack หรือ Notion ซึ่งมันถูกรวมเป็นผู้ช่วย ผู้เชี่ยวชาญที่ใช้การผสานรวมเหล่านั้นอาจไม่รู้ด้วยซ้ำว่า Claude เป็นเครื่องยนต์ แต่เมื่อพวกเขาทำ พวกเขาจะเปรียบเทียบในแง่ดีในแง่ของสไตล์การเขียนและความสามารถในการย่อยเอกสารขององค์กรขนาดใหญ่ ตัวอย่างเช่น ทีมอาจป้อนรายงานรายไตรมาสที่ยาวให้กับ Claude และได้รับสรุปที่เหมาะสม – สิ่งที่บริบทที่เล็กกว่าของ ChatGPT จะลำบาก อย่างไรก็ตาม ผู้ใช้ธุรกิจยังสังเกตเห็นการขาดฟีเจอร์ของอีโคซิสเต็มบางอย่าง ตัวอย่างเช่น OpenAI เสนอการควบคุมข้อความระบบ การเรียกฟังก์ชัน ฯลฯ ใน API ของพวกเขา ซึ่ง Anthropic มีการสนับสนุนที่จำกัดมากกว่า นักพัฒนาที่ทำงานเกี่ยวกับโซลูชันทางธุรกิจกล่าวว่า Claude สามารถควบคุมได้มากกว่าในการสนทนา ในขณะที่ ChatGPT มักจะเข้มงวดกว่า... [แต่] ChatGPT สามารถเข้าถึงเว็บได้ซึ่งอาจมีประโยชน์มาก ความหมายคือสำหรับงานวิจัยหรือการค้นหาข้อมูลที่ผู้ใช้ธุรกิจอาจต้องการ (เช่น ข่าวกรองการแข่งขัน) ChatGPT สามารถดึงข้อมูลได้โดยตรง ในขณะที่ Claude จะต้องมีขั้นตอนแยกต่างหาก โดยรวมแล้ว ผู้ใช้ธุรกิจดู Claude เป็น AI ที่มีความสามารถมาก – ในบางกรณี ดีกว่า สำหรับงานวิเคราะห์ภายใน – แต่บางทีอาจยังไม่สมบูรณ์เท่าสำหรับการรวมเข้าด้วยกัน ค่าใช้จ่ายเป็นอีกปัจจัยหนึ่ง: การกำหนดราคาและเงื่อนไขของ API ของ Claude ไม่เป็นสาธารณะเท่ากับของ OpenAI และสตาร์ทอัพบางรายใน Reddit ได้กล่าวถึงความไม่แน่นอนเกี่ยวกับการกำหนดราคาหรือความเสถียรของ Claude โดยสรุป ผู้เชี่ยวชาญเคารพความสามารถของ Claude (โดยเฉพาะความน่าเชื่อถือในการปฏิบัติตามคำแนะนำระดับสูงและสรุปข้อมูลขนาดใหญ่) แต่พวกเขาจับตาดูว่ามันพัฒนาอย่างไรในแง่ของการรวม การสนับสนุน และความพร้อมใช้งานทั่วโลกก่อนที่จะมุ่งมั่นอย่างเต็มที่กับมันมากกว่า ChatGPT ที่เป็นที่ยอมรับมากกว่า


Google Gemini (Bard)

ปัญหาและข้อจำกัดทั่วไป

  • คำตอบที่ไม่ถูกต้องหรือ “โง่”: มีความคิดเห็นใน Reddit จำนวนมากเมื่อ Google เปิดตัวการอัปเกรด Bard ที่ขับเคลื่อนด้วย Gemini ซึ่งส่วนใหญ่เป็นเชิงลบ ผู้ใช้บ่นว่า Gemini ทำงานได้ต่ำกว่ามาตรฐานในการถามตอบพื้นฐาน เมื่อเทียบกับ ChatGPT การประเมินที่ตรงไปตรงมาชื่อ “100% Honest Take on Google Gemini” ระบุว่า: “มันเป็นแชทบอท LLM ที่เสียหายและไม่ถูกต้อง” ผู้ใช้ที่หงุดหงิดอีกคนถามว่า: “Gemini ยังแย่อยู่ได้อย่างไร? จำนวนครั้งที่ฉันถาม Gemini บางอย่างและมันให้คำตอบที่ไม่ถูกต้องหรือคำตอบที่ไม่สมบูรณ์นั้นน่าหัวเราะ” พวกเขาเปรียบเทียบแบบเคียงข้างกันกับ ChatGPT-4 และพบว่า ChatGPT ให้ “คำตอบที่สมบูรณ์แบบ ถูกต้อง มีประสิทธิภาพในครั้งเดียว” ในขณะที่ Gemini พูดเพ้อเจ้อและต้องการคำถามหลายคำถามเพื่อให้ได้คำตอบที่พอใจครึ่งหนึ่ง โดยสรุป ผู้ใช้ในช่วงแรก ๆ รู้สึกว่า Gemini มัก หลงประเด็นหรือพลาดประเด็น ของคำถาม ต้องใช้ความพยายามในการถามคำถามมากเกินไปเพื่อดึงข้อมูลที่ถูกต้อง ความไม่สอดคล้องกันในคุณภาพนี้เป็นความผิดหวังครั้งใหญ่เมื่อพิจารณาจากความคาดหวังเกี่ยวกับ Gemini

  • ความยาวและความฟุ่มเฟือยเกินไป: ผู้ใช้หลายคนสังเกตว่า Gemini (ในรูปแบบของ Bard ใหม่) มีแนวโน้มที่จะสร้างคำตอบที่ยืดยาวซึ่งไม่ตรงประเด็น ตามที่คนหนึ่งอธิบายว่า “มันพูดเพ้อเจ้อ... 3 ย่อหน้าของขยะ AI... แม้กระทั่งตอนนั้น มัน [เพียง] กล่าวถึงคำตอบในย่อหน้าของขยะ” นี่เป็นความแตกต่างอย่างชัดเจนกับ ChatGPT ซึ่งมักจะให้คำตอบที่กระชับกว่าหรือเป็นหัวข้อย่อยเมื่อเหมาะสม ความยาวกลายเป็นปัญหาเมื่อผู้ใช้ต้องคัดกรองข้อความจำนวนมากเพื่อหาข้อเท็จจริงง่าย ๆ บางคนคาดเดาว่า Google อาจปรับแต่งให้เป็นการสนทนาหรือ “ช่วยเหลือ” แต่เกินไปใน การอธิบายมากเกินไปโดยไม่มีสาระสำคัญ

  • การรวมเข้ากับบริการของ Google ที่ไม่ดี: หนึ่งในจุดขายของผู้ช่วย AI ของ Google ควรจะเป็นการรวมเข้ากับอีโคซิสเต็มของ Google (Gmail, Docs, Drive ฯลฯ) อย่างไรก็ตาม ประสบการณ์ของผู้ใช้ในช่วงแรก ๆ นั้นน่าผิดหวังมากในด้านนี้ ผู้ใช้คนหนึ่งระบายว่า: “อย่าให้ฉันเริ่มเกี่ยวกับความสามารถในการรวมเข้ากับผลิตภัณฑ์ของ Google เองที่เกือบจะไม่มีอยู่จริงซึ่งควรจะเป็น ‘ฟีเจอร์’ (ซึ่งมันดูเหมือนจะไม่รู้ว่ามี)” ตัวอย่างเช่น ผู้คนจะลองขอให้ Gemini (ผ่าน Bard) สรุป Google Doc หรือร่างอีเมลตามข้อมูลบางอย่าง – ฟีเจอร์ที่ Google โฆษณา – และบอทจะตอบว่ามัน ไม่สามารถเข้าถึงข้อมูลนั้นได้ ผู้ใช้คนหนึ่งใน r/GooglePixel เขียนว่า: “ทุกครั้งที่ฉันพยายามใช้ Gemini กับ Google Docs หรือ Drive ของฉัน มันบอกว่ามันไม่สามารถทำอะไรกับมันได้ จุดประสงค์ของการมีฟีเจอร์การรวมเหล่านี้คืออะไร?” สิ่งนี้แสดงให้เห็นถึงช่องว่างที่สำคัญระหว่างความสามารถที่สัญญาไว้และประสิทธิภาพจริง ทำให้ผู้ใช้รู้สึกว่าผู้ช่วย AI “ไม่ช่วยเหลือ” มากนักในอีโคซิสเต็มของ Google เอง

  • การปฏิเสธและความสับสนในความสามารถ: ผู้ใช้ยังเจอการปฏิเสธหรือความขัดแย้งที่แปลกประหลาดจาก Gemini ผู้ใช้ Redditor คนเดียวกันสังเกตว่า Gemini “ปฏิเสธที่จะทำสิ่งต่าง ๆ โดยไม่มีเหตุผล ลืมว่ามันสามารถทำสิ่งอื่น ๆ ได้... วันก่อนมันบอกฉันว่ามันไม่มีการเข้าถึงอินเทอร์เน็ต/ข้อมูลสด อะไรนะ” สิ่งนี้บ่งชี้ว่า Gemini บางครั้ง ปฏิเสธงานที่มันควรจะทำได้ (เช่น การดึงข้อมูลสด ซึ่ง Bard เชื่อมต่ออยู่) หรือให้คำแถลงที่ไม่ถูกต้องเกี่ยวกับความสามารถของตัวเอง ประสบการณ์ดังกล่าวทำให้เกิดความประทับใจของ AI ที่ไม่เพียงแค่ฉลาดน้อยกว่า แต่ยัง ไม่น่าเชื่อถือหรือไม่ตระหนักรู้ในตัวเอง อีกด้วย ความคิดเห็นที่มีสีสันของผู้ใช้อีกราย: “Gemini เป็นขยะอย่างแท้จริง คุณเคยมีช่วงเวลาที่คุณแค่อยากจะยกมือขึ้นและพูดว่า ‘พวกเขาคิดอะไรอยู่?’” สรุปคือ ปัญหาการรวมผลิตภัณฑ์และความสม่ำเสมอของ Gemini ทำให้มันรู้สึก ยังไม่เสร็จสมบูรณ์ สำหรับผู้ใช้ในช่วงแรก ๆ หลายคน

  • ความสามารถในการเขียนโค้ดที่ไม่น่าประทับใจ: แม้จะไม่ได้มีการพูดถึงอย่างกว้างขวางเท่ากับการถามตอบทั่วไป ผู้ใช้หลายคนได้ทดสอบ Gemini (Bard) ในงานการเขียนโค้ดและพบว่ามันด้อยกว่า ในฟอรัม AI ความสามารถในการเขียนโค้ดของ Gemini มักถูกจัดอันดับต่ำกว่า GPT-4 และแม้แต่ต่ำกว่า Claude ตัวอย่างเช่น ผู้ใช้คนหนึ่งระบุอย่างตรงไปตรงมาว่า “Claude 3.5 Sonnet ดีกว่าอย่างชัดเจนสำหรับการเขียนโค้ดมากกว่า ChatGPT 4o... Gemini เป็นขยะอย่างแท้จริง [ในบริบทนั้น]” ข้อสรุปคือ Gemini สามารถเขียนโค้ดง่าย ๆ หรืออธิบายอัลกอริธึมพื้นฐานได้ แต่บ่อยครั้งที่มันสะดุดในปัญหาที่ซับซ้อนกว่าหรือสร้างโค้ดที่มีข้อผิดพลาด การขาดชุดเครื่องมือสำหรับนักพัฒนาที่กว้างขวาง (เช่น มันไม่มีสิ่งที่เทียบเท่ากับ Code Interpreter หรือการเรียกฟังก์ชันที่แข็งแกร่ง) ยังหมายความว่ามันไม่ใช่ตัวเลือกแรกสำหรับโปรแกรมเมอร์ ดังนั้นในขณะที่ผู้ใช้ทั่วไปอาจไม่สนใจเรื่องโค้ดมากนัก แต่นี่เป็นข้อจำกัดสำหรับกลุ่มนั้น

  • ข้อจำกัดของอุปกรณ์เคลื่อนที่: Gemini เปิดตัวเป็นส่วนหนึ่งของ Google’s Assistant บนโทรศัพท์ Pixel (ภายใต้แบรนด์ “Assistant with Bard”) ผู้ใช้ Pixel บางคนสังเกตว่าการใช้มันเป็นตัวแทนของผู้ช่วยเสียงมีปัญหา บางครั้งมันไม่รับคำสั่งเสียงอย่างถูกต้องหรือใช้เวลาตอบสนองนานเกินไปเมื่อเทียบกับ Google Assistant เก่า นอกจากนี้ยังมีความคิดเห็นเกี่ยวกับความจำเป็นในการเลือกเข้าร่วมและสูญเสียฟีเจอร์บางอย่างของ Assistant แบบคลาสสิก สิ่งนี้สร้างการรับรู้ว่า การรวม Gemini บนอุปกรณ์ยังไม่พร้อมเต็มที่ ทำให้ผู้ใช้พลังงานของอีโคซิสเต็มของ Google รู้สึกว่าพวกเขาต้องเลือกระหว่างผู้ช่วยที่ฉลาดและผู้ช่วยที่ใช้งานได้

ฟีเจอร์หรือการปรับปรุงที่ร้องขอบ่อย

  • ปรับปรุงความแม่นยำและการให้เหตุผลอย่างมาก: การปรับปรุงอันดับหนึ่งที่ผู้ใช้ต้องการสำหรับ Gemini คือเพียงแค่ ให้ฉลาดขึ้นและน่าเชื่อถือมากขึ้น ข้อเสนอแนะใน Reddit ทำให้ชัดเจนว่า Google จำเป็นต้องปิดช่องว่างในคุณภาพของคำตอบ ผู้ใช้คาดหวังว่า Gemini จะใช้การเข้าถึงข้อมูลจำนวนมากของ Google เพื่อให้ คำตอบที่เป็นข้อเท็จจริงและตรงไปตรงมา ไม่ใช่คำตอบที่ยืดยาวหรือไม่ถูกต้อง ดังนั้นคำขอ (มักจะมีการพูดประชดประชัน) จึงสรุปได้ว่า: ทำให้มันดีเท่าหรือดีกว่า GPT-4 ในความรู้ทั่วไปและการให้เหตุผล ซึ่งรวมถึงการจัดการคำถามติดตามผลและคำถามที่ซับซ้อนได้ดีขึ้น โดยพื้นฐานแล้ว “แก้ไขสมอง” ของ Gemini – ใช้ประโยชน์จากข้อได้เปรียบในการฝึกอบรมหลายรูปแบบที่อ้างว่าเพื่อให้มันหยุดพลาดรายละเอียดที่ชัดเจน Google น่าจะได้ยินเรื่องนี้อย่างชัดเจน: โพสต์หลายรายการเปรียบเทียบคำตอบเฉพาะที่ ChatGPT ทำได้ดีและ Gemini ล้มเหลว ซึ่งทำหน้าที่เป็นรายงานข้อบกพร่องที่ไม่เป็นทางการสำหรับการปรับปรุง

  • การรวมเข้ากับบริบทและการรับรู้ที่ดีขึ้น: ผู้ใช้ต้องการให้ Gemini ทำตามสัญญาของผู้ช่วยอีโคซิสเต็มของ Google อย่างราบรื่น ซึ่งหมายความว่ามันควร เชื่อมต่อกับ Gmail, Calendar, Docs, Drive ฯลฯ ได้อย่างถูกต้อง หากผู้ใช้ถามว่า “สรุปเอกสารที่ฉันเปิด” หรือ “ร่างคำตอบสำหรับอีเมลล่าสุดจากเจ้านายของฉัน” AI ควรทำ – และทำอย่างปลอดภัย ตอนนี้คำขอคือให้ Google เปิดใช้งานฟีเจอร์เหล่านั้นและทำให้ Gemini รู้จักเมื่อทำงานดังกล่าวเป็นไปได้ มันถูกโฆษณาว่า Bard สามารถเชื่อมต่อกับเนื้อหาของผู้ใช้ (ด้วยการอนุญาต) ดังนั้นผู้ใช้จึงเรียกร้องให้ Google “เปิด” หรือแก้ไขการรวมนี้ นี่เป็นฟีเจอร์สำคัญสำหรับผู้ใช้ธุรกิจโดยเฉพาะ นอกจากนี้ ในด้านการท่องเว็บ: Bard (Gemini) สามารถค้นหาเว็บได้ แต่ผู้ใช้บางคนต้องการให้มันอ้างอิงแหล่งข้อมูลอย่างชัดเจนหรือรวมข่าวด่วนได้ทันเวลา ดังนั้นการปรับปรุงลักษณะที่ เชื่อมต่อ ของ Gemini เป็นคำขอบ่อย

  • การควบคุมความกระชับ: เนื่องจากมีการร้องเรียนเกี่ยวกับความยาว ผู้ใช้บางคนแนะนำฟีเจอร์ในการสลับรูปแบบการตอบสนอง ตัวอย่างเช่น “โหมดสั้น” ที่ Gemini ให้คำตอบสั้น ๆ โดยค่าเริ่มต้น เว้นแต่จะขอให้ขยายความ ในทางกลับกัน อาจมี “โหมดละเอียด” สำหรับผู้ที่ต้องการคำตอบที่ละเอียดมาก ChatGPT อนุญาตให้บางส่วนโดยคำถามของผู้ใช้ (“ให้มันสั้น”) กับ Gemini ผู้ใช้รู้สึกว่าถึงแม้พวกเขาจะไม่ขอรายละเอียด มันก็อธิบายมากเกินไป ดังนั้นการตั้งค่าในตัวหรือเพียงแค่การปรับแต่งที่ดีขึ้นเพื่อสร้างคำตอบที่กระชับเมื่อเหมาะสมจะเป็นการปรับปรุงที่น่ายินดี โดยพื้นฐานแล้ว ปรับการควบคุมความยาว

  • ความเท่าเทียมกับ ChatGPT (การเขียนโค้ด ปลั๊กอิน ฯลฯ): ผู้ใช้พลังงานใน Reddit เปรียบเทียบฟีเจอร์อย่างชัดเจน พวกเขาขอให้ Google’s Gemini/Bard เสนอสิ่งต่าง ๆ เช่น แซนด์บ็อกซ์การดำเนินการโค้ด (คล้ายกับ ChatGPT’s Code Interpreter) ความสามารถในการอัปโหลดภาพ/PDF เพื่อการวิเคราะห์ (เนื่องจาก Gemini เป็นหลายรูปแบบ ผู้ใช้ต้องการป้อนภาพที่กำหนดเองจริง ๆ ไม่ใช่แค่ให้มันอธิบายภาพที่ให้ไว้) ฟีเจอร์ที่กล่าวถึงบ่อยอีกอย่างคือ หน่วยความจำภายในการสนทนาที่ดีขึ้น – ในขณะที่ Bard มีหน่วยความจำบางส่วนของการโต้ตอบที่ผ่านมา ผู้ใช้ต้องการให้มันดีเท่ากับ ChatGPT ในการอ้างอิงบริบทก่อนหน้า หรือแม้แต่มีการจัดเก็บการสนทนาอย่างถาวรเช่นประวัติการแชทของ ChatGPT ที่คุณสามารถเลื่อนดูและกลับไปดูได้ โดยพื้นฐานแล้ว Google ถูกขอให้ตามทันฟีเจอร์คุณภาพชีวิตทั้งหมดที่ผู้ใช้ ChatGPT Plus มี: ประวัติการแชท อีโคซิสเต็มของปลั๊กอิน (หรืออย่างน้อยการรวมบุคคลที่สามที่แข็งแกร่ง) ความช่วยเหลือด้านการเขียนโค้ด ฯลฯ

  • การปรับปรุงแอปมือถือและเสียง: ผู้ใช้ทั่วไปจำนวนมากร้องขอ แอปมือถือเฉพาะสำหรับ Bard/Gemini (คล้ายกับแอปมือถือ ChatGPT) การพึ่งพาอินเทอร์เฟซเว็บหรือเฉพาะ Assistant ของ Pixel เป็นการจำกัด แอปอย่างเป็นทางการใน iOS/Android ที่มีอินพุตเสียง การตอบสนองด้วยเสียง (สำหรับความรู้สึกของผู้ช่วยจริง) และการรวมที่แน่นหนาสามารถปรับปรุงประสบการณ์ของผู้ใช้ได้อย่างมาก พร้อมกับนั้น เจ้าของ Pixel ต้องการให้ Assistant with Bard เร็วขึ้นและใช้งานได้มากขึ้น – โดยพื้นฐานแล้วพวกเขาต้องการสิ่งที่ดีที่สุดของ Google Assistant เก่า (การกระทำที่รวดเร็วและแม่นยำ) รวมกับความฉลาดของ Gemini ตัวอย่างเช่น สิ่งต่าง ๆ เช่น การอนุญาตให้ใช้คำสั่งเสียง “Hey Google” ต่อไปและไม่ใช่แค่การตอบสนองที่พูดคุย Google สามารถปรับปรุงโหมดเสียงของ Gemini เพื่อแทนที่ผู้ช่วยรุ่นเก่าอย่างแท้จริงโดยไม่มีการถดถอยของฟีเจอร์

  • ความโปร่งใสและการควบคุม: ผู้ใช้บางคนได้ขอข้อมูลเชิงลึกเพิ่มเติมเกี่ยวกับแหล่งที่มาของ Bard หรือวิธีปรับแต่งสไตล์ของมัน ตัวอย่างเช่น การแสดงว่า Bard กำลังดึงข้อมูลจากผลการค้นหา Google ใด (เพื่อยืนยันความถูกต้อง) – สิ่งที่ Bing Chat ทำโดยการอ้างอิงลิงก์ นอกจากนี้ เนื่องจาก Bard บางครั้งผลิตข้อมูลที่ผิด ผู้ใช้ต้องการความสามารถในการทำเครื่องหมายหรือแก้ไข และในอุดมคติ Bard ควรเรียนรู้จากข้อเสนอแนะนั้นเมื่อเวลาผ่านไป การมีกลไกข้อเสนอแนะที่ง่าย (“ไม่ชอบ – นี่ไม่ถูกต้องเพราะ...”) ที่นำไปสู่การปรับปรุงโมเดลอย่างรวดเร็วจะสร้างความมั่นใจว่า Google กำลังรับฟัง โดยพื้นฐานแล้ว ฟีเจอร์ที่จะทำให้ AI เป็นผู้ช่วยที่ทำงานร่วมกันมากขึ้นแทนที่จะเป็นกล่องดำ

ความต้องการหรือกลุ่มผู้ใช้ที่ยังไม่ได้รับการตอบสนอง

  • ผู้ใช้ที่ต้องการผู้ช่วยส่วนตัวที่เชื่อถือได้: เป็นเรื่องน่าขันที่กลุ่มที่ Google มุ่งเป้า – ผู้ที่ต้องการผู้ช่วยส่วนตัวที่ทรงพลัง – รู้สึกว่าไม่ได้รับการตอบสนองมากที่สุดจาก Gemini ในรูปแบบปัจจุบัน ผู้ใช้ในช่วงแรก ๆ ที่เปิดใช้งาน Assistant ใหม่ที่ใช้ Bard คาดหวังการอัปเกรด แต่หลายคนรู้สึกว่ามันเป็นการลดระดับในแง่ปฏิบัติ ตัวอย่างเช่น หากมีคนต้องการผู้ช่วยเสียงเพื่อ ตอบคำถามเรื่องไม่สำคัญ ตั้งการเตือน ควบคุมอุปกรณ์ และรวมข้อมูลจากบัญชีของพวกเขาอย่างแม่นยำ Gemini มีปัญหา สิ่งนี้ทำให้กลุ่มมืออาชีพที่ยุ่งหรือผู้ที่ชื่นชอบแกดเจ็ต (ที่พึ่งพาผู้ช่วยเพื่อเพิ่มประสิทธิภาพ) รู้สึกว่าความต้องการของพวกเขาไม่ได้รับการตอบสนอง ผู้ใช้คนหนึ่งแสดงความคิดเห็นว่าพวกเขาจะพิจารณาจ่ายเงินสำหรับ “Assistant with Bard” ของ Pixel “หาก [มัน] เหนือกว่า Google Assistant” ซึ่งบ่งบอกว่ามันยังไม่ถึง ดังนั้นกลุ่มนั้นยังคงรอผู้ช่วย AI ที่เชื่อถือได้และมีประโยชน์อย่างแท้จริง – พวกเขาจะกระโดดเข้าหามันหาก Gemini ปรับปรุง

  • ผู้ที่ไม่พูดภาษาอังกฤษเป็นภาษาแม่ / การแปลภาษา: ผลิตภัณฑ์ของ Google มักมีการแปลภาษาที่ยอดเยี่ยม แต่ไม่ชัดเจนว่า Bard/Gemini แข็งแกร่งเท่าเทียมกันในทุกภาษาตั้งแต่เปิดตัวหรือไม่ ผู้ใช้ต่างประเทศบางรายรายงานว่าคำตอบของ Bard ในภาษาพื้นเมืองของพวกเขามีความคล่องแคล่วหรือน่าใช้ประโยชน์น้อยกว่า ผลักดันให้พวกเขากลับไปใช้คู่แข่งในท้องถิ่น หากข้อมูลการฝึกอบรมหรือการเพิ่มประสิทธิภาพของ Gemini ให้ความสำคัญกับภาษาอังกฤษ ผู้ใช้ที่ไม่ใช่ภาษาอังกฤษจะไม่ได้รับการตอบสนอง พวกเขาอาจชอบ ChatGPT หรือโมเดลท้องถิ่นที่ได้ปรับประสิทธิภาพหลายภาษาอย่างชัดเจน นี่เป็นพื้นที่ที่ Google สามารถทำได้ดีตามปกติ (เนื่องจากเทคโนโลยีการแปลของมัน) แต่ข้อเสนอแนะของผู้ใช้เกี่ยวกับเรื่องนี้มีน้อย – น่าจะบ่งบอกว่า Gemini ยังไม่ได้ทำให้ชุมชนเหล่านั้นประทับใจ

  • ลูกค้าองค์กร (จนถึงตอนนี้): องค์กรขนาดใหญ่ยังไม่ได้ใช้ Bard/Gemini อย่างกว้างขวางตามการพูดคุยสาธารณะ มักเป็นเพราะช่องว่างด้านความไว้วางใจและความสามารถ องค์กรต้องการความสม่ำเสมอ การอ้างอิง และการรวมเข้ากับเวิร์กโฟลว์ของพวกเขา (Office 365 รวมเข้ากับเทคโนโลยีของ OpenAI อย่างลึกซึ้งผ่าน MS Copilot ตัวอย่างเช่น) เทียบเท่าของ Google (Duet AI with Gemini) ยังคงพัฒนาอยู่ จนกว่า Gemini/Bard จะพิสูจน์ได้ว่ามันสามารถร่างอีเมล สร้างสไลด์ หรือวิเคราะห์ข้อมูลใน Google Sheets ได้ในระดับที่เทียบเท่าหรือสูงกว่า GPT-4 ผู้ใช้ระดับองค์กรจะรู้สึกว่าโซลูชันของ Google ไม่ตอบสนองความต้องการของพวกเขาอย่างเต็มที่ โพสต์บางรายการใน r/Bard จากมืออาชีพมีลักษณะว่า “ฉันลองใช้ Bard สำหรับงานที่ทำงานแล้ว มันไม่ดีเท่า ChatGPT ดังนั้นเราจะรอดู” นั่นบ่งชี้ว่าผู้ใช้ระดับองค์กรเป็นกลุ่มที่ยังไม่ได้รับการตอบสนองในขณะนี้ – พวกเขาต้องการ AI ที่เข้ากับ Google Workspace และเพิ่มประสิทธิภาพจริง ๆ โดยไม่ต้องตรวจสอบผลลัพธ์อย่างต่อเนื่อง

  • ผู้ใช้ในอีโคซิสเต็มของ Google ที่ต้องการโซลูชันครบวงจร: มีผู้ใช้กลุ่มหนึ่งที่ใช้ Google สำหรับทุกอย่าง (การค้นหา อีเมล เอกสาร) และ จะ ใช้ AI ของ Google อย่างมีความสุขสำหรับความต้องการแชทบอททั้งหมดของพวกเขา – หากมันดีเท่ากัน ตอนนี้ผู้ใช้เหล่านั้น