ความคิดเห็นของผู้ใช้ Reddit เกี่ยวกับเครื่องมือแชท LLM หลัก
ภาพรวม: รายงานนี้วิเคราะห์การสนทนาใน Reddit เกี่ยวกับเครื่องมือแชท AI ยอดนิยมสี่ตัว ได้แก่ ChatGPT ของ OpenAI, Claude ของ Anthropic, Gemini ของ Google (Bard) และ open-source LLMs (เช่น โมเดลที่ใช้ LLaMA) โดยสรุปปัญหาที่ผู้ใช้รายงานบ่อย ๆ ฟีเจอร์ที่ร้องขอบ่อย ๆ ความต้องการที่ยังไม่ได้รับการตอบสนอง หรือกลุ่มผู้ใช้ที่รู้สึกว่าไม่ได้รับการตอบสนอง และความแตกต่างในการรับรู้ระหว่างนักพัฒนา ผู้ใช้ทั่วไป และผู้ใช้ธุรกิจ ตัวอย่างเฉพาะและคำพูดจากกระทู้ Reddit ถูกนำมาใช้เพื่อแสดงให้เห็นถึงประเด็นเหล่านี้
ChatGPT (OpenAI)
ปัญหาและข้อจำกัดทั่วไป
-
หน่วยความจำบริบทที่จำกัด: ข้อร้องเรียนอันดับต้น ๆ คือความสามารถของ ChatGPT ในการจัดการกับการสนทนาที่ยาวหรือเอกสารขนาดใหญ่โดยไม่ลืมรายละเอียดก่อนหน้า ผู้ใช้มักจะเจอขีดจำกัดความยาวบริบท (ไม่กี่พันโทเค็น) และต้องตัดหรือสรุปข้อมูล ผู้ใช้คนหนึ่งกล่าวว่า “การเพิ่มขนาดหน้าต่าง บริบทจะเป็นการปรับปรุงที่ใหญ่ที่สุด... นั่นคือขีดจำกัดที่ฉันเจอบ่อยที่สุด” เมื่อเกินบริบท ChatGPT จะลืมคำแนะนำหรือเนื้อหาเริ่มต้น ทำให้คุณภาพลดลงกลางเซสชัน
-
ขีดจำกัดข้อความสำหรับ GPT-4: ผู้ใช้ ChatGPT Plus บ่นเกี่ยวกับขีดจำกัด 25 ข้อความ/3 ชั่วโมงในการใช้ GPT-4 (ขีดจำกัดที่มีในปี 2023) การเจอขีดจำกัดนี้ทำให้พวกเขาต้องรอ ขัดจังหวะการทำงาน ผู้ใช้หนัก ๆ พบว่าการจำกัดนี้เป็นปัญหาใหญ่
-
ตัวกรองเนื้อหาที่เข้มงวด (“nerfs”): ผู้ใช้ Reddit หลายคนรู้สึกว่า ChatGPT มีข้อจำกัดมากเกินไป มักปฏิเสธคำขอที่เวอร์ชันก่อนหน้านี้จัดการได้ โพสต์ที่ได้รับการโหวตสูงบ่นว่า “แทบทุกอย่างที่คุณถามมันในทุกวันนี้จะได้รับคำตอบว่า ‘ขอโทษ ไม่สามารถช่วยได้’... มันกลายเป็นเครื่องมือที่มีประโยชน์ที่สุดไปเป็นเทียบเท่ากับ Google Assistant ได้อย่างไร?” ผู้ใช้ยกตัวอย่ างเช่น ChatGPT ปฏิเสธที่จะจัดรูปแบบใหม่ ข้อความของตัวเอง (เช่น ข้อมูลเข้าสู่ระบบ) เนื่องจากการใช้งานที่ผิดพลาดที่เป็นไปได้ ผู้สมัครสมาชิกที่จ่ายเงินโต้แย้งว่า “แนวคิดที่คลุมเครือว่าผู้ใช้อาจทำสิ่ง 'ไม่ดี'... ไม่ควรเป็นเหตุผลในการไม่แสดงผลลัพธ์” เนื่องจากพวกเขาต้องการผลลัพธ์ของโมเดลและจะใช้อย่างรับผิดชอบ
-
ภาพหลอนและข้อผิดพลาด: แม้จะมีความสามารถขั้นสูง แต่ ChatGPT สามารถสร้างข้อมูลที่ไม่ถูกต้องหรือแต่งขึ้นด้วยความมั่นใจ ผู้ใช้บางคนสังเกตเห็นว่าสิ่งนี้แย่ลงเมื่อเวลาผ่านไป สงสัยว่าโมเดลถูก “ทำให้โง่ลง” ตัวอย่างเช่น ผู้ใช้ในด้านการเงินกล่าวว่า ChatGPT เคยคำนวณเมตริกเช่น NPV หรือ IRR ได้อย่างถูกต้อง แต่หลังจากการอัปเดต “ฉันได้รับคำตอบที่ผิดมากมาย... มันยังคงให้คำตอบที่ผิด [แม้หลังจากการแก้ไข] ฉันเชื่อจริง ๆ ว่ามันโง่ลงมากตั้งแต่มีการเปลี่ยนแปลง” ความไม่ถูกต้องที่คาดเดาไม่ได้เช่นนี้ทำให้ความไว้วางใจลดลงสำหรับงานที่ต้องการความแม่นยำของข้อเท็จจริง
-
ผลลัพธ์โค้ดที่ไม่สมบูรณ์: นักพัฒนามักใช้ ChatGPT เพื่อขอความช่วยเหลือเกี่ยวกับการเขียนโค้ด แต่พวกเขารายงานว่าบางครั้งมันละเว้นส่วนของโซลูชันหรือย่อโค้ดยาว ๆ ผู้ใช้คนหนึ่งแชร์ว่า ChatGPT ตอนนี้ “ละเว้นโค้ด ผลิตโค้ดที่ไม่มีประโยชน์ และแย่ในสิ่งที่ฉันต้องการให้มันทำ... มันมักละเว้นโค้ดมากจนฉันไม่รู้ด้วยซ้ำว่าจะรวมโซลูชันของมันอย่างไร” สิ่งนี้บังคับให้ผู้ใช้ต้องถามคำถามติดตามเพื่อดึงส่วนที่เหลือออกมา หรือเย็บคำตอบเข้าด้วยกันด้วยตนเอง ซึ่งเป็นกระบวนการที่น่าเบื่อ
-
ข้อกังวลเกี่ยวกับประสิทธิภาพและเวลาใช้งาน: มีการรับรู้ว่า ประสิทธิภาพของ ChatGPT สำ หรับผู้ใช้รายบุคคลลดลงเมื่อการใช้งานขององค์กรเพิ่มขึ้น “ฉันคิดว่าพวกเขากำลังจัดสรรแบนด์วิดท์และพลังการประมวลผลให้กับธุรกิจและดึงมันออกจากผู้ใช้ ซึ่งเป็นสิ่งที่ทนไม่ได้เมื่อพิจารณาจากค่าใช้จ่ายในการสมัครสมาชิก!” ผู้ใช้ Plus ที่หงุดหงิดคนหนึ่งกล่าว การหยุดทำงานหรือการช้าลงในช่วงเวลาที่มีการใช้งานสูงสุดได้รับการบันทึกไว้โดยบังเอิญ ซึ่งอาจขัดขวางการทำงาน
ฟีเจอร์หรือการปรับปรุงที่ร้องขอบ่อย
-
หน้าต่างบริบท / หน่วยความจำที่ยาวขึ้น: การปรับปรุงที่ร้องขอมากที่สุดคือความยาวบริบทที่ใหญ่ขึ้น ผู้ใช้ต้องการมีการสนทนาที่ยาวขึ้นมากหรือป้อนเอกสารขนาดใหญ่โดยไม่ต้องรีเซ็ต หลายคนแนะนำให้ขยายบริบทของ ChatGPT ให้ตรงกับความสามารถของ GPT-4 ที่มี 32K โทเค็น (ปัจจุบันมีให้ใช้งานผ่าน API) หรือมากกว่านั้น ตามที่ผู้ใช้คนหนึ่งกล่าวไว้ว่า “GPT ดีที่สุดเมื่อมีบริบท และเมื่อมันจำบริบทเริ่มต้นไม่ได้ ฉันก็หงุดหงิด... ถ้าข่าวลือเป็นจริงเกี่ยวกับ PDF บริบท นั่นจะแก้ปัญหาของฉันได้แทบทั้งหมด” มีความต้องการสูงสำหรับฟีเจอร์ในการอัปโหลดเอกสารหรือเชื่อมโยงข้อมูลส่วนบุคคลเพื่อให้ ChatGPT สามารถจดจำและอ้างอิงได้ตลอดเซสชัน
-
การจัดการไฟล์และการรวมระบบ: ผู้ใช้มักจะขอวิธีที่ง่ายกว่าในการป้อนไฟล์หรือข้อมูลเข้า ChatGPT ในการสนทนา ผู้คนพูดถึงการต้องการ “คัดลอกและวาง Google Drive ของฉันและให้มันทำงาน” หรือมีปลั๊กอินที่ให้ ChatGPT ดึงบร ิบทจากไฟล์ส่วนตัวได้โดยตรง บางคนได้ลองใช้วิธีแก้ปัญหา (เช่น ปลั๊กอินอ่าน PDF หรือการเชื่อมโยง Google Docs) แต่บ่นเกี่ยวกับข้อผิดพลาดและขีดจำกัด ผู้ใช้คนหนึ่งอธิบายปลั๊กอินในอุดมคติของพวกเขาว่าเป็นปลั๊กอินที่ “ทำงานเหมือน Link Reader แต่สำหรับไฟล์ส่วนตัว... เลือกส่วนใดของไดรฟ์ของฉันที่จะใช้ในการสนทนา... นั่นจะแก้ปัญหาทุกอย่างที่ฉันมีกับ GPT-4 ในปัจจุบัน” สรุปคือ การสนับสนุนเนื้อหาภายนอกที่ดีกว่า (นอกเหนือจากข้อมูลการฝึกอบรม) เป็นคำขอที่ได้รับความนิยม
-
การลดการจำกัดสำหรับผู้ใช้ที่ชำระเงิน: เนื่องจากผู้ใช้ Plus จำนวนมากเจอขีดจำกัดข้อความของ GPT-4 พวกเขาจึงเรียกร้องขีดจำกัดที่สูงขึ้นหรือทางเลือกในการจ่ายเงินเพิ่มสำหรับการเข้าถึงไม่จำกัด ขีดจำกัด 25 ข้อความถูกมองว่าเป็นการจำกัดโดยพลการและขัดขวางการใช้งานอย่างเข้มข้น ผู้คนต้องการโมเดลที่ใช้ตามการใช้งานหรือขีดจำกัดที่สูงขึ้นเพื่อให้เซสชันการแก้ปัญหาที่ยาวนานไม่ถูกตัดขาด
-
โหมดการกลั่นกรองเนื้อหาที่ “ไม่เซ็นเซอร์” หรือกำหนดเอง: ผู้ใช้บางกลุ่มต้องการความสามารถในการสลับความเข้มงวดของตัวกรองเนื้อหา โดยเฉพาะอย่างยิ่งเมื่อใช้ ChatGPT สำหรับตัวเอง (ไม่ใช่เนื้อหาที่เผยแพร่สู่สาธารณะ) พวกเขารู้สึกว่าโหมด “การวิจัย” หรือ “ไม่เซ็นเซอร์” – ที่มีคำเตือนแต่ไม่ปฏิเสธอย่างหนัก – จะช่วยให้พวกเขาสำรวจได้อย่างอิสระมากขึ้น ตามที่ผู้ใช้คนหนึ่งกล่าวไว้ว่า ลูกค้าที่จ่ายเงินมองว่าเป็นเครื่องมือและเชื่อว่า “ฉันจ่ายเงินสำหรับ [มัน]” พวกเขาต้องการตัวเลือกในการรับคำตอบแม้ในคำถามที่อยู่ในขอบเขต ในขณะที่ OpenAI ต้องสร้างสมดุลระหว่างความปลอดภัย ผู้ใช้เหล่านี้แนะนำให้ใช้ธงหรือการตั้งค่า เพื่อผ่อนคลายนโยบายในการแชทส่วนตัว
-
ความแม่นยำของข้อเท็จจริงและการอัปเดตที่ดีขึ้น: ผู้ใช้มักขอความรู้ที่ทันสมัยและภาพหลอนน้อยลง ขีดจำกัดความรู้ของ ChatGPT (กันยายน 2021 ในเวอร์ชันก่อนหน้า) เป็นข้อจำกัดที่มักถูกหยิบยกขึ้นมาใน Reddit OpenAI ได้แนะนำการท่องเว็บและปลั๊กอิน ซึ่งผู้ใช้บางคนใช้ประโยชน์ แต่คนอื่น ๆ เพียงแค่ขอให้โมเดลพื้นฐานได้รับการอัปเดตบ่อยขึ้นด้วยข้อมูลใหม่ การลดข้อผิดพลาดที่ชัดเจน – โดยเฉพาะในโดเมนเช่นคณิตศาสตร์และการเขียนโค้ด – เป็นความปรารถนาที่ต่อเนื่อง นักพัฒนาบางคนให้ข้อเสนอแนะเมื่อ ChatGPT ทำผิดพลาดโดยหวังว่าจะมีการปรับปรุงโมเดล
-
ผลลัพธ์โค้ดและเครื่องมือที่ดีขึ้น: นักพัฒนามีคำขอฟีเจอร์ เช่น ตัวแปลโค้ดที่ได้รับการปรับปรุงซึ่งไม่ละเว้นเนื้อหา และการรวมเข้ากับ IDE หรือการควบคุมเวอร์ชัน (ปลั๊กอินตัวแปลโค้ดของ OpenAI – ปัจจุบันเป็นส่วนหนึ่งของ “การวิเคราะห์ข้อมูลขั้นสูง” – เป็นก้าวหนึ่งในทิศทางนี้และได้รับคำชม) อย่างไรก็ตาม ผู้ใช้มักขอการควบคุมที่ละเอียดกว่าในการสร้างโค้ด: เช่น ตัวเลือกในการส่งออกโค้ดที่สมบูรณ์ ไม่กรอง แม้ว่าจะยาว หรือกลไกในการแก้ไขโค้ดได้ง่ายหาก AI ทำผิดพลาด โดยพื้นฐานแล้วพวกเขาต้องการให้ ChatGPT ทำตัวเหมือนผู้ช่วยการเขียนโค้ดที่เชื่อถือได้มากขึ้นโดยไม่จำเป็นต้องมีหลายคำถามเพื่อปรับคำตอบ
-
โปรไฟล์ผู้ใช้หรือหน่วยความจำที่คงอยู่: การปรับปรุงอีกอย่างที่บางคนกล่าวถึงคือการให้ ChatGPT จดจำสิ่งต่าง ๆ เกี่ยวกับผู้ใช้ข้ามเซสชัน (ด้วยความยินยอม) ตัวอย่างเช่น การจดจำสไตล์การเขียนของตนเอง หรือว่าพวกเขาเป็นวิศวกรซอฟต์แวร์ โดยไม่ต้องระบุใหม่ทุกการแชทใหม่ สิ่งนี้สามารถผูกเข้ากั บการปรับแต่ง API หรือฟีเจอร์ “โปรไฟล์” ผู้ใช้คัดลอกบริบทที่สำคัญไปยังการแชทใหม่ด้วยตนเองในขณะนี้ ดังนั้นหน่วยความจำในตัวสำหรับการตั้งค่าส่วนบุคคลจะช่วยประหยัดเวลา
ความต้องการหรือกลุ่มผู้ใช้ที่ยังไม่ได้รับการตอบสนอง
-
นักวิจัยและนักเรียนที่มีเอกสารยาว: ผู้ที่ต้องการให้ ChatGPT วิเคราะห์เอกสารวิจัย หนังสือ หรือชุดข้อมูลขนาดใหญ่รู้สึกว่าไม่ได้รับการตอบสนอง ขีดจำกัดปัจจุบันบังคับให้พวกเขาต้องตัดข้อความหรือยอมรับการส รุป กลุ่มนี้จะได้รับประโยชน์อย่างมากจากหน้าต่างบริบทที่ใหญ่ขึ้นหรือฟีเจอร์ในการจัดการเอกสารยาว (ตามที่เห็นได้จากโพสต์จำนวนมากเกี่ยวกับการพยายามหลีกเลี่ยงขีดจำกัดโทเค็น)
-
ผู้ใช้ที่ต้องการการเล่าเรื่องสร้างสรรค์หรือการเล่นบทบาทเกินขีดจำกัด: ในขณะที่ ChatGPT มักใช้สำหรับการเขียนเชิงสร้างสรรค์ นักเล่าเรื่องบางคนรู้สึกถูกจำกัดโดยโมเดลที่ลืมจุดพล็อตเริ่มต้นในเรื่องยาวหรือปฏิเสธเนื้อหาสำหรับผู้ใหญ่/สยองขวัญ พวกเขาหันไปใช้โมเดลทางเลือกหรือการแฮ็กเพื่อดำเนินการเล่าเรื่องต่อไป ผู้ใช้ที่มีความคิดสร้างสรรค์เหล่านี้จะได้รับการตอบสนองที่ดีกว่าด้วยเวอร์ชันของ ChatGPT ที่มีหน่วยความจำยาวขึ้นและมีความยืดหยุ่นมากขึ้นเกี่ยวกับความรุนแรงในนิยายหรือธีมสำหรับผู้ใหญ่ (ในขอบเขตที่เหมาะสม) ตามที่นักเขียนนิยายคนหนึ่งกล่าวไว้ว่า เมื่อ AI สูญเสียการติดตามเรื่องราว “ฉันต้องเตือนมันถึงรูปแบบหรือบริบทที่แน่นอน... ฉันรู้สึกหงุดหงิดที่มันยอดเยี่ยมเมื่อสองคำถามที่แล้ว แต่ตอนนี้ฉันต้องตาม AI ให้ทัน”
-
ผู้ใช้พลังงานและผู้เชี่ยวชาญด้านโดเมน: ผู้เชี่ยวชาญในสาขาเฉพาะทาง (การเงิน, วิศวกรรม, การแพทย์) บางครั้งพบว่าคำตอบของ ChatGPT ขาดความลึกหรือความแม่นยำในโดเมนของตน โดยเฉพาะอย่างยิ่งหากคำถามเกี่ยวข้องกับการพัฒนาล่าสุด ผู้ใช้เหล่านี้ต้องการความรู้จากผู้เชี่ยวชาญที่เชื่อถือได้มากขึ้น บางคนได้ลองปรับแต่งผ่าน API หรือ GPTs ที่กำหนดเอง ผู้ที่ไม่สามารถปรับแต่งได้จะชื่นชมเวอร์ชัน ChatGPT เฉพาะโดเมนหรือปลั๊กอินที่ฝังฐานข้อมูลที่เชื่อถือได้ ในรูปแบบเริ่มต้น ChatGPT อาจไม่ตอบสนองผู้ใช้ที่ต้องการข้อมูลเฉพาะด้านที่มีความแม่นยำสูง (พวกเขามักต้องตรวจสอบงานของมันอีกครั้ง)
-
ผู้ใช้ที่ต้องการเนื้อหาที่ไม่เซ็นเซอร์หรือกรณีขอบ: ผู้ใช้ส่วนน้อย (แฮ็กเกอร์ที่ทดสอบสถานการณ์ความปลอดภัย นักเขียนนิยายสุดขั้ว ฯลฯ) พบว่าข้อจำกัดเนื้อหาของ ChatGPT จำกัดเกินไปสำหรับความต้องการของพวกเขา ปัจจุบันพวกเขาไม่ได้รับการตอบสนองจากผลิตภัณฑ์อย่างเป็นทางการ (เนื่องจากหลีกเลี่ยงเนื้อหาบางประเภทโดยชัดแจ้ง) ผู้ใช้เหล่านี้มักทดลองใช้คำถามเจลเบรกหรือใช้โมเดลโอเพ่นซอร์สเพื่อให้ได้คำตอบที่ต้องการ นี่เป็นช่องว่างโดยเจตนาสำหรับ OpenAI (เพื่อรักษาความปลอดภัย) แต่หมายความว่าผู้ใช้ดังกล่าวมองหาที่อื่น
-
บุคคลและองค์กรที่ใส่ใจเรื่องความเป็นส่วนตัว: ผู้ใช้บางคน (โดยเฉพาะในองค์กร) ไม่สบายใจที่จะส่งข้อมูลที่ละเอียดอ่อนให้กับ ChatGPT เนื่องจากข้อกังวลด้านความเป็นส่วนตัว OpenAI มีนโยบายที่จะไม่ใช้ข้อมูล API เพื่อการฝึกอบรม แต่ UI เว็บของ ChatGPT ในอดีตไม่ได้ให้การรับประกันดังกล่าวจนกว่าจะมีฟีเจอร์ยกเลิกการเข้าร่วม บริษัทที่จัดการข้อมูลลับ (กฎหมาย การดูแลสุขภาพ ฯลฯ) มักรู้สึกว่าพวกเขาไม่สามารถใช้ประโยชน์จาก ChatGPT ได้อย่างเต็มที่ ทำให้ความต้องการของพวกเขาไม่ได้รับการตอบสนอง เว้นแต่พวกเขาจะสร้างโซลูชันที่โฮสต์เอง ตัวอย่างเช่น ผู้ใช้ Reddit รายหนึ่งกล่าวถึงบริษัทของตนที่เปลี่ยนไปใช้ LLM ในพื้นที่ด้วยเหตุผลด้านความเป็นส่วนตัว จนกว่าจะมีการใช้งาน ChatGPT ในสถานที่หรืออินสแตนซ์ส่วนตัว กลุ่มนี้ยังคงระมัดระวังหรือใช้ผู้ขายเฉพาะรายที่มีขนาดเล็กกว่า
ความแตกต่างในการรับรู้ตามประเภทผู้ใช้
-
นักพัฒนา/ผู้ใช้ทางเทคนิค: นักพัฒนามักจะเป็นทั้งผู้สนับสนุนที่ใหญ่ที่สุดและนักวิจารณ์ที่รุนแรงที่สุดของ ChatGPT พวกเขาชื่นชอบความสามารถในการอธิบายโค้ด สร้างโค้ดต้นแบบ และช่วยในการดีบัก อย่างไรก็ตาม พวกเขารู้สึกถึงข้อจำกัดในบริบทที่ยาวขึ้นและความแม่นยำของโค้ดอย่างมาก ตามที่นักพัฒนาคนหนึ่งบ่นว่า ChatGPT เริ่ม “ผลิตโค้ดที่ไม่มีประโยชน์” และละเว้นส่วนสำคัญ ซึ่ง “ทำให้ฉันโกรธ... ฉันไม่ต้องการบอกมันว่า ‘อย่าขี้เกียจ’ – ฉันแค่ต้องการผลลัพธ์ทั้งหมด” นักพัฒนามักสังเกตเห็นแม้กระทั่งการเปลี่ยนแปลงคุณภาพที่ละเอียดอ่อนหลังจากการอัปเดตโมเดลและได้แสดงความคิดเห็นอย่างมากใน Reddit เกี่ยวกับการรับรู้ “nerfs” หรือการลดลงของความสามารถในการเขียนโค้ด พวกเขายังผลักดันขีดจำกัด (สร้างคำถามที่ซับซ้อน เชื่อมโยงเครื่องมือ) ดังนั้นพวกเขาจึงต้องการฟีเจอร์เช่นบริบทที่ขยายออกไป ขีดจำกัดข้อความที่น้อยลง และการรวมเข้ากับเครื่องมือการเขียนโค้ดได้ดีขึ้น โดยสรุป นักพัฒนามองว่า ChatGPT เป็นเครื่องมือในการเร่งงานประจำ แต่พร้อมที่จะชี้ให้เห็นข้อผิดพลาดในตรรกะหรือโค้ด – พวกเขามองว่าเป็นผู้ช่วยระดับจูเนียร์ที่ยังต้องการการดูแล
-
ผู้ใช้ทั่วไป/ผู้ใช้ประจำวัน: ผู้ใช้ทั่วไปมากขึ้น – ผู้ที่ถามหาความรู้ทั่วไป คำแนะนำ หรือความสนุก – มักจะทึ่งในความสามารถของ ChatGPT แต่พวกเขาก็ มีปัญหาของตัวเอง ความหงุดหงิดทั่วไปของผู้ใช้ทั่วไปคือเมื่อ ChatGPT ปฏิเสธคำขอที่ดูเหมือนไม่มีพิษภัยสำหรับพวกเขา (อาจเป็นเพราะกฎนโยบาย) ผู้โพสต์ต้นฉบับในกระทู้หนึ่งเป็นตัวอย่างของสิ่งนี้ โดย “โกรธมากเมื่อฉันเขียนคำถามที่มันไม่ควรมีปัญหาและตอนนี้มันปฏิเสธ” ผู้ใช้ทั่วไปอาจเจอขีดจำกัดความรู้ (พบว่า bot ไม่สามารถจัดการกับเหตุการณ์ปัจจุบันมาก ๆ ได้เว้นแต่จะอัปเดตอย่างชัดเจน) และบางครั้งสังเกตเห็นเมื่อ ChatGPT ให้คำตอบที่ผิดอย่างชัดเจน ไม่เหมือนนักพัฒนา พวกเขาอาจไม่ตรวจสอบ AI ซ้ำเสมอ ซึ่งอาจนำไปสู่ความผิดหวังหากพวกเขาดำเนินการตามความผิดพลาด ในด้านบวก ผู้ใช้ทั่วไปจำนวนมากพบว่าการตอบสนองที่รวดเร็วของ ChatGPT Plus และผลลัพธ์ที่ดีขึ้นของ GPT-4 คุ้มค่ากับ $20/เดือน – เว้นแต่ปัญหา “การปฏิเสธ” หรือข้อจำกัดอื่น ๆ จะทำให้ประสบการณ์เสีย พว กเขาต้องการผู้ช่วยที่มีประโยชน์สำหรับทุกวัตถุประสงค์และอาจรู้สึกหงุดหงิดเมื่อ ChatGPT ตอบกลับด้วยคำแถลงนโยบายหรือจำเป็นต้องมีคำถามที่ซับซ้อนเพื่อให้ได้คำตอบง่าย ๆ
-
ผู้ใช้ธุรกิจ/ผู้ใช้มืออาชีพ: ผู้ใช้ธุรกิจมักจะเข้าหา ChatGPT จากมุมมองของประสิทธิภาพและความน่าเชื่อถือ พวกเขาชื่นชมการร่างอีเมลอย่างรวดเร็ว สรุปเอกสาร หรือสร้างไอเดีย อย่างไรก็ตาม พวกเขากังวลเกี่ยวกับ ความปลอดภัยของข้อมูล ความสม่ำเสมอ และการรวมเข้ากับเวิร์กโฟลว์ ใน Reddit ผู้เชี่ยวชาญได้พูดคุยเกี่ยวกับการต้องการ ChatGPT ในเครื่องมือเช่น Outlook, Google Docs หรือเป็น API ในระบบภายในของพวกเขา บางคนสังเกตว่าเมื่อ OpenAI เปลี่ยนไปให้บริการลูกค้าองค์กร ดูเหมือนว่าจุดสนใจของผลิตภัณฑ์จะเปลี่ยนไป: มีความรู้สึกว่าประสบการณ์ของผู้ใช้ฟรีหรือรายบุคคลลดลงเล็กน้อย (เช่น ช้าลงหรือ “ฉลาดน้อยลง”) เมื่อบริษัทขยายขนาดเพื่อให้บริการลูกค้าที่ใหญ่ขึ้น ไม่ว่าจะจริงหรือไม่ มันเน้นการรับรู้: ผู้ใช้ธุรกิจต้องการความน่าเชื่อถือและบริการที่มีลำดับความสำคัญ และผู้ใช้รายบุคคลกังวลว่าตอนนี้พวกเขาเป็นชั้นสอง นอกจากนี้ ผู้เชี่ยวชาญต้องการผลลัพธ์ที่ถูกต้อง – คำตอบที่ฉูดฉาดแต่ผิดอาจแย่กว่าการไม่มีคำตอบ ดังนั้นกลุ่มนี้จึงมีความอ่อนไหวต่อความแม่นยำ สำหรับพวกเขา ฟีเจอร์เช่นบริบทที่ยาวขึ้น (สำหรับการอ่านสัญญา การวิเคราะห์ฐานโค้ด) และการรับประกันเวลาใช้งานเป็นสิ่งสำคัญ พวกเขามีแนวโน้มที่จะจ่ายเงินมากขึ้นสำหรับระดับการบริการระดับพรีเมียม หากข้อกำหนดด้านการปฏิบัติตามข้อกำหนดและความเป็นส่วนตัวของพวกเขาได้รับการตอบสนอง บางองค์กรถึงกับสำรวจการปรับใช้ในสถานที่หรือการใช้ API ของ OpenAI พร้อมกฎการจัดการข้อมูลที่เข้มงวดเพื่อตอบสนองนโยบาย IT ของพวกเขา
Claude (Anthropic)
ปัญหาและข้อจำกัดทั่วไป
-
ขีดจำกัดการใช้งานและข้อจำกัดการเข้าถึง: Claude ได้รับคำชมสำหรับการเสนอโมเดลที่ทรงพลัง (Claude 2) ฟรี แต่ผู้ใช้พบขีดจำกัดการใช้งานอย่างรวดเร็ว (โดยเฉพาะในระดับฟรี) หลังจากจำนวนคำถามหรือข้อความจำนวนมาก Claude อาจหยุดและพูดบางอย่างเช่น “ขอโทษ ฉันต้องจบบทสนทนานี้ชั่วคราว กรุณากลับมาใหม่ภายหลัง” การจำกัดนี้ทำให้ผู้ใช้ที่ปฏิบัติต่อ Claude เป็นคู่หูในการเขียนโค้ดหรือการเขียนที่ขยายออกไปหงุดหงิด แม้แต่ผู้ใช้ Claude Pro (ที่ชำระเงิน) ก ็ “ไม่ได้รับการรับประกันเวลาที่ไม่จำกัด” ตามที่ผู้ใช้คนหนึ่งกล่าวไว้ การเจอโควต้ายังคงสร้างข้อความ “กลับมาใหม่ภายหลัง” นอกจากนี้ Claude ยังถูกจำกัดภูมิศาสตร์อย่างเป็นทางการเป็นเวลานาน (ในตอนแรกมีให้บริการเฉพาะในสหรัฐอเมริกา/สหราชอาณาจักร) ผู้ใช้ต่างประเทศใน Reddit ต้องใช้ VPN หรือแพลตฟอร์มของบุคคลที่สามเพื่อเข้าถึง ซึ่งเป็นความไม่สะดวก สิ่งนี้ทำให้ผู้ใช้ที่ไม่ใช่ชาวสหรัฐฯ หลายคนรู้สึกถูกทิ้งจนกว่าจะมีการขยายการเข้าถึง
-
แนวโน้มที่จะออกนอกเส้นทางด้วยอินพุตที่ใหญ่มาก: ฟีเจอร์พาดหัวของ Claude คือ หน้าต่างบริบท 100k โทเค็น ซึ่งอนุญาตให้มีคำถามที่ยาวมาก อย่างไรก็ตาม ผู้ใช้บางคนสังเกตว่าเมื่อคุณใส่โทเค็นหลายหมื่นเข้าไปใน Claude คำตอบของมันอาจกลายเป็นไม่โฟกัส “100k มีประโยชน์มาก แต่ถ้ามันไม่ทำตามคำแนะนำอย่างถู กต้องและออกนอกเส้นทาง มันก็ไม่ค่อยมีประโยชน์” ผู้ใช้คนหนึ่งกล่าว สิ่งนี้บ่งชี้ว่าในบริบทที่ใหญ่โต Claude อาจหลุดหรือเริ่มพูดเพ้อเจ้อ ต้องการคำถามที่ระมัดระวังเพื่อให้มันอยู่ในงาน เป็นข้อจำกัดที่เกิดจากการผลักดันบริบทไปสู่ขีดสุด – โมเดลยังคงรักษาไว้ได้มาก แต่บางครั้ง “ลืม” ว่ารายละเอียดใดมีความเกี่ยวข้องมากที่สุด นำไปสู่ภาพหลอนเล็กน้อยหรือการเบี่ยงเบนที่ไม่เกี่ยวข้อง
-
การจัดรูปแบบหรือการเชื่อฟังคำแนะนำที่ไม่สอดคล้องกัน: ในการเปรียบเทียบแบบเคียงข้างกัน ผู้ใช้บางคนพบว่า Claude คาดเดาได้น้อยกว่าในวิธีที่มันทำตามคำสั่งบางอย่าง ตัวอย่างเช่น Claude ถูกอธิบายว่า “มีลักษณะเหมือนมนุษย์มากกว่าในการโต้ตอบ แต่ปฏิบัติตามข้อความระบบน้อยกว่า” ซึ่งหมายความว่าหากคุณให้รูปแบบคงที่หรือบุคลิกที่เข้มงวดมาก Claude อาจเบี่ยงเบนมากกว่า ChatGPT นักพัฒนาที่ต้องการผลลัพธ์ที่กำหนดได้ (เช่น รูปแบบ JSON หรือสไตล์เฉพาะ) บางครั้งรู้สึกหงุดหงิดหาก Claude เพิ่มคำอธิบายเพิ่มเติมหรือไม่ปฏิบัติตามเทมเพลตอย่างเคร่งครัด
-
ข้อจำกัดเนื้อหาและการปฏิเสธ: แม้จะไม่ได้รับการวิพากษ์วิจารณ์บ่อยเท่ากับของ ChatGPT แต่ตัวกรองความปลอดภัยของ Claude ก็มีการพูดถึง Anthropic ออกแบบ Claude โดยเน้นหนักไปที่ AI ตามรัฐธรรมนูญ (ให้ AI เองปฏิบัติตามแนวทางจริยธรรม) ผู้ใช้มักพบว่า Claude ยินดีที่จะพูดคุยในหัวข้อที่หลากหลาย แต่มีบางกรณีที่ Claude ปฏิเสธคำขอที่ ChatGPT อาจอนุญาต ตัวอย่างเช่น ผู้ใช้ Reddit รายหนึ่งกล่าวว่า “ChatGPT มีข้อจำกัดทางศีลธรรมน้อยกว่า... มันจะอธิบายว่าหน้ากากแก๊สชนิดใดดีกว่าสำหรับสภาวะใด ในขณะที่ Claude จะปฏิเสธ” สิ่งนี้บ่งชี้ว่า Claude อาจเข้มงวดมากกว่าเกี่ยวกับคำแนะนำ “ที่ละเอียดอ่อน” บางอย่าง (อาจถือว่าเป็นคำแนะนำที่อาจเป็นอันตราย) ผู้ใช้อีกรายลองสถานการณ์เล่นบทบาทที่สนุกสนาน (“แกล้งทำเป็นว่าคุณถูกเอเลี่ยนลักพาตัว”) ซึ่ง Claude ปฏิเสธ ในขณะที่ Gemini และ ChatGPT จะมีส่วนร่วม ดังนั้น Claude จึงมีตัวกรองที่บางครั้งทำให้ผู้ใช้ประหลาดใจที่คาดหวังว่าจะอนุญาตมากกว่า
-
ขาดความสามารถหลายรูปแบบ: ไม่เหมือนกับ ChatGPT (ซึ่งในช่วงปลายปี 2023 ได้รับความเข้าใจเกี่ยวกับภาพด้วย GPT-4 Vision) Claude ปัจจุบันเป็นเพียงข้อความเท่านั้น ผู้ใช้ Reddit สังเกตว่า Claude ไม่สามารถวิเคราะห์ภาพหรือท่องเว็บได้โดยตรงด้วยตัวเอง นี่ไม่ใช่ “ปัญหา” (Anthropic ไม่เคยโฆษณาฟีเจอร์เหล่านั้น) แต่มันเป็นข้อจำกัดเมื่อเทียบกับคู่แข่ง ผู้ใช้ที่ต้องการ AI เพื่อแปลความหมายของไดอะแกรมหรือภาพหน้าจอไม่สามารถใช้ Claude ได้ ในขณะที่ ChatGPT หรือ Gemini อาจจัดการได้ ในทำนองเดียวกัน การดึงข้อ มูลปัจจุบันใด ๆ ต้องใช้ Claude ผ่านเครื่องมือของบุคคลที่สาม (เช่น Poe หรือการรวมเครื่องมือค้นหา) เนื่องจาก Claude ไม่มีโหมดการท่องเว็บอย่างเป็นทางการในขณะนี้
-
ปัญหาความเสถียรเล็กน้อย: ผู้ใช้บางคนรายงานว่า Claude บางครั้งซ้ำซากหรือวนซ้ำในคำถามบางอย่าง (แม้ว่าจะพบได้น้อยกว่าบางโมเดลที่เล็กกว่า) นอกจากนี้ เวอร์ชันก่อนหน้าของ Claude บางครั้งสิ้นสุดการตอบสนองก่อนกำหนดหรือต้องใช้เวลานานกับผลลัพธ์ขนาดใหญ่ ซึ่งอาจถูกมองว่าเป็นความรำคาญเล็กน้อย แม้ว่า Claude 2 จะปรับปรุงเรื่องความเร็วแล้ว