ملاحظات سلبية حول تطبيقات السرد القصصي ولعب الأدوار المدعومة بنماذج اللغة الكبيرة (LLM)
نظرة عامة: اجتذبت تطبيقات سرد القصص ولعب الأدوار المدعومة بنماذج اللغة الكبيرة (LLM) – مثل AI Dungeon وReplika وNovelAI وCharacter.AI – قواعد مستخدمين متحمسة، لكنها واجهت أيضًا انتقادات كبيرة. تتراوح الشكاوى الشائعة من أوجه القصور الفنية (توليد نصوص متكررة أو غير مترابطة) إلى الخلافات الأخلاقية والسياسية (الإشراف غير الكافي مقابل الرقابة المفرطة)، بالإضافة إلى إحباطات تجربة المستخدم (واجهات سيئة، زمن استجابة عالٍ، جدران دفع) ومخاوف بشأن جودة المشاركة على المدى الطويل. فيما يلي نظرة عامة شاملة على ردود الفعل السلبية، مع أمثلة من المستخدمين العاديين والمراجعين الخبراء على حد سواء، يتبعها جدول ملخص يقارن الشكاوى الشائعة عبر هذه المنصات.
القيود التقنية في روبوتات سرد القصص
غالبًا ما تواجه مولدات القصص القائمة على نماذج اللغة الكبيرة (LLM) صعوبة في التكرار والاتساق والاحتفاظ بالسياق خلال التفاعلات الممتدة. يُبلغ المستخدمون بشكل متكرر أن أنظمة الذكاء الاصطناعي هذه تفقد مسار السرد أو تبدأ في تكرار نفسها بعد فترة:
-
التكرار والحلقات: لاحظ لاعبو AI Dungeon أن الذكاء الاصطناعي يمكن أن يقع في حلقات، ويكرر النص السابق حرفيًا تقريبًا. اشتكى أحد مستخدمي Reddit من أنه "عند الضغط على متابعة، يميل إلى تكرار كل شيء حرفيًا من القصة". وبالمثل، يذكر مستخدمو Replika أن المحادثات تصبح دورية أو نمطية بمرور الوقت، مع إعادة استخدام الروبوت لنفس العبارات المبهجة. لاحظ أحد مراجعي Quora أن رفقاء Replika على المدى الطويل "يبقون ثابتين، مما يجعل التفاعلات تبدو متكررة وسطحية".
-
الاتساق و "الهلوسات": يمكن لهذه النماذج أن تنتج تحولات قصصية غريبة أو غير منطقية، خاصة خلال الجلسات الطويلة. لاحظت مراجعة لـ AI Dungeon أن التجربة "فريدة من نوعها، غير متوقعة، وغالبًا ما تكون غير منطقية" – قد يقدم الذكاء الاصطناعي فجأة أحداثًا غير منطقية أو محتوى خارج الموضوع (مشكلة معروفة في النماذج التوليدية التي "تهلوس" الحقائق). يجد المختبرون أحيانًا أن السرد ينحرف عن مساره دون سابق إنذار، مما يتطلب من المستخدم توجيهه يدويًا للعودة إلى المسار الصحيح.
-
حدود السياق/الذاكرة: جميع هذه التطبيقات لديها نوافذ سياق محدودة، لذا تميل القصص أو المحادثات الأطول إلى المعاناة من النسيان. على سبيل المثال، يأسف عشاق Character.AI على ذاكرة الروبوت القصيرة: "الذكاء الاصطناعي... يميل إلى نسيان الرسائل السابقة... مما يؤدي إلى تناقضات". في AI Dungeon، لاحظ المستخدمون أنه مع نمو القصة، يدفع النظام التفاصيل القديمة خارج السياق. كتب أحد المستخدمين: "في النهاية، يتم تجاهل بطاقات شخصيتك"، واصفًا كيف تنسى اللعبة سمات الشخصية المحددة مع توليد المزيد من النص. يؤدي هذا النقص في الذاكرة المستمرة إلى تناقض الشخصيات مع نفسها أو فشلها في تذكر نقاط الحبكة الرئيسية – مما يقوض سرد القصص الطويلة.
-
مخرجات عامة أو غير متوافقة مع النبرة: ينتقد بعض المبدعين أدوات مثل NovelAI و Character.AI لإنتاجها نتائج باهتة إذا لم يتم تهيئتها بعناية. على الرغم من تقديم خيارات التخصيص، غالبًا ما تميل الروبوتات نحو نبرة صوت محايدة. وفقًا لإحدى المراجعات، قد تبدو الشخصيات المخصصة في Character.AI "باهتة جدًا أو غير متوافقة على الإطلاق مع النبرة... التي قمت بتعيينها". غالبًا ما يضطر الكتاب الذين يتوقعون من الذكاء الاصطناعي محاكاة أسلوب مميز إلى محاربة إعداداته الافتراضية.
بشكل عام، بينما يقدر المستخدمون الإبداع الذي تقدمه هذه الأنظمة الذكاء الاصطناعي، فإن العديد من المراجعات تخفف التوقعات بواقع أن نماذج اللغة الكبيرة الحالية (LLMs) تعاني من مشكلة الاتساق. يمكن أن تتحول القصص إلى نصوص متكررة أو انحرافات سريالية إذا استمرت الجلسات لفترة طويلة جدًا دون تدخل المستخدم. تشكل هذه القيود التقنية خلفية للعديد من الشكاوى الأخرى، حيث تؤثر على الجودة الأساسية لسرد القصص ولعب الأدوار.