एलएलएम-संचालित कहानी कहने और भूमिका निभाने वाले ऐप्स पर नकारात्मक प्रतिक्रिया
अवलोकन: बड़े भाषा मॉडल (एलएलएम)–संचालित कहानी कहने और भूमिका निभाने वाले ऐप्स – जैसे एआई डंगऑन, रेप्लिका, नोवेलएआई, और कैरेक्टर.एआई – ने उत्साही उपयोगकर्ता आधार आकर्षित किए हैं, लेकिन इन्हें महत्वपूर्ण आलोचना का भी सामना करना पड़ा है। सामान्य शिकायतें तकनीकी कमियों (दोहराव या असंगत पाठ उत्पन्न करना) से लेकर नैतिक और नीतिगत विवादों (अपर्याप्त मॉडरेशन बनाम अति उत्साही सेंसरशिप) तक होती हैं, साथ ही उपयोगकर्ता अनुभव की निराशाएँ (खराब इंटरफेस, विलंबता, पेवॉल्स) और दीर्घकालिक जुड़ाव की गुणवत्ता के बारे में चिंताएँ भी होती हैं। नीचे नकारात्मक प्रतिक्रिया का एक व्यापक अवलोकन है, जिसमें रोज़म र्रा के उपयोगकर्ताओं और विशेषज्ञ समीक्षकों दोनों के उदाहरण शामिल हैं, इसके बाद इन प्लेटफार्मों के बीच सामान्य शिकायतों की तुलना करने वाली एक सारांश तालिका है।
कहानी कहने वाले बॉट्स में तकनीकी सीमाएँ
एलएलएम-आधारित कहानी जनरेटर अक्सर दोहराव, सामंजस्य और संदर्भ प्रतिधारण के साथ लंबी बातचीत के दौरान संघर्ष करते हैं। उपयोगकर्ता अक्सर रिपोर्ट करते हैं कि ये एआई सिस्टम कथा से भटक जाते हैं या थोड़ी देर बाद खुद को दोहराना शुरू कर देते हैं:
-
दोहराव और लूपिंग: एआई डंगऑन के खिलाड़ियों ने नोट किया है कि एआई लूप में फंस सकता है, पहले के पाठ को लगभग शब्दशः दोहराता है। एक रेडिट उपयोगकर्ता ने शिकायत की कि "जब जारी रखने पर क्लिक करते हैं, तो यह कहानी से सब कुछ सचमुच दोहराने लगता है"। इसी तरह, रेप्लिका उपयोगकर्ता उल्लेख करते हैं कि बातचीत समय के साथ चक्रीय या सूत्रबद्ध हो जाती है, जिसमें बॉट वही खुशमिजाज बातें दोहराता है। लंबे समय तक रेप्लिका साथी "स्थिर रहते हैं, जिससे बातचीत दोहरावदार और उथली लगती है," एक क्वोरा समीक्षक ने देखा।
-
सामंजस्य और "मतिभ्रम": ये मॉडल विशेष रूप से लंबी सत्रों के दौरान अजीब या बेतुके कहानी मोड़ उत्पन्न कर सकते हैं। एआई डंगऑन की एक समीक्षा में अनुभव को "अद्वितीय, अप्रत्याशित और अक्सर बेतुका" बताया गया - एआई अचानक तर्कहीन घटनाओं या विषय से हटकर सामग्री पेश कर सकता है (जनरेटिव मॉडल के "तथ्य मतिभ्रम" के साथ एक ज्ञात समस्या)। परीक्षक कभी-कभी पाते हैं कि कथा बिना चेतावनी के पटरी से उतर जाती है, जिसके लिए उपयोगकर्ता को इसे मैन्युअल रूप से वापस ट्रैक पर लाना पड़ता है।
-
संदर्भ/मेमोरी सीमाएँ: इन सभी ऐप्स की संदर्भ विंडो सीमित होती है, इसलिए लंबी कहानियाँ या चैट भूलने की समस्या से ग्रस्त होती हैं। उदाहरण के लिए, कैरेक्टर.एआई के प्रशंसक बॉट की छोटी मेमोरी की शिकायत करते हैं: "एआई... पिछले संदेशों को भूलने की प्रवृत्ति रखता है... जिससे असंगतताएँ उत्पन्न होती हैं"। एआई डंगऑन में, उपयोगकर्ताओं ने देखा कि जैसे-जैसे कहानी बढ़ती है, सिस्टम पुराने विवरणों को संदर्भ से बाहर कर देता है। "आखिरकार, आपके चरित्र कार्ड अनदेखा कर दिए जाते हैं," एक उपयोगकर्ता ने लिखा, यह वर्णन करते हुए कि कैसे खेल अधिक पाठ उत्पन्न होने पर स्थापित चरित्र लक्षणों को भूल जाता है। इस स्थायी मेमोरी की कमी के परिणामस्वरूप पात्र खुद का खंडन करते हैं या प्रमुख कथानक बिंदुओं को याद रखने में विफल रहते ह ैं - लंबी कहानियों को कमजोर करते हैं।
-
सामान्य या ऑफ-वॉयस आउटपुट: कुछ रचनाकार नोवेलएआई और कैरेक्टर.एआई जैसे उपकरणों की आलोचना करते हैं कि वे सावधानीपूर्वक कॉन्फ़िगर न किए जाने पर फीके परिणाम उत्पन्न करते हैं। अनुकूलन विकल्प प्रदान करने के बावजूद, बॉट अक्सर एक तटस्थ आवाज की ओर बहक जाते हैं। एक समीक्षा के अनुसार, कैरेक्टर.एआई में कस्टम पात्र "बहुत फीके या बिल्कुल भी उस लहजे के अनुरूप नहीं हो सकते हैं... जो आपने सौंपा है"। लेखक जो उम्मीद करते हैं कि एआई एक विशिष्ट शैली की नकल करेगा, उन्हें अक्सर इसके डिफ़ॉल्ट के खिलाफ लड़ना पड़ता है।
कुल मिलाकर, जबकि उपयोगकर्ता इन एआई की रचनात्मकता की सराहना करते हैं, कई समीक्षाएँ इस वास्तविकता के साथ अपेक्षाओं को संतुलित करती हैं कि वर्तमान एलएलएम संगति के साथ संघर्ष करते हैं। कहानियाँ दोहरावदार पाठ या अति यथार्थवादी प्रवृत्तियों में बदल सकती हैं यदि सत्र बहुत लंबे समय तक बिना उपयोगकर्ता हस्तक्षेप के चलते रहें। ये तकनीकी सीमाएँ कई अन्य शिकायतों की पृष्ठभूमि बनाती हैं, क्योंकि वे कहानी कहने और भूमिका निभाने की मुख्य गुणवत्ता को प्रभावित करती हैं।
नैतिक चिंताएँ और मॉडरेशन मुद्दे
इन एआई ऐप्स की खुली प्रकृति ने उनके द्वारा उत्पन्न सामग्री और उनके द्वारा सक्षम व्यवहारों के आसपास गंभीर नैतिक विवादों को जन्म दिया है। डेवलपर्स को उपयोगकर्ता स्वतंत्रता की अनुमति देने और हानिकारक या अवैध सामग्री को रोकने के बीच संतुलन बनाना पड़ा है, और उन्हें कई मोर्चों पर प्रतिक्र िया का सामना करना पड़ा है:
-
परेशान करने वाली सामग्री उत्पन्न करना: शायद सबसे कुख्यात घटना एआई डंगऑन द्वारा अनजाने में नाबालिगों से संबंधित यौन सामग्री उत्पन्न करना था। 2021 की शुरुआत में, एक नई निगरानी प्रणाली ने खुलासा किया कि कुछ उपयोगकर्ता जीपीटी-3 को "बच्चों को शामिल करने वाली यौन मुठभेड़ों की कहानियाँ" उत्पन्न करने के लिए प्रेरित करने में कामयाब रहे थे। मॉडल प्रदान करने वाले ओपनएआई ने तत्काल कार्रवाई की मांग की। इस खोज (जिसे वायर्ड में कवर किया गया) ने एआई रचनात्मकता के अंधेरे पक्ष पर प्रकाश डाला, जिससे यह चिंता बढ़ गई कि जनरेटिव टेक्स्ट नैतिक और कानूनी सीमाओं को कितनी आसानी से पार कर सकता है। एआई डंगऑन के डेवलपर्स सहमत थे कि ऐसी सामग्री स्पष्ट रूप से अस्वीकार्य थी, और इसे रोकने की आवश्यकता स्पष्ट थी। हालांकि, इलाज ने अपनी सम स्याएँ पैदा कीं (जैसा कि नीति प्रतिक्रिया पर अगले अनुभाग में चर्चा की गई है)।
-
एआई-जनित उत्पीड़न या नुकसान: उपयोगकर्ताओं ने इन बॉट्स से अनचाहे स्पष्ट या अपमानजनक आउटपुट की भी रिपोर्ट की है। उदाहरण के लिए, रेप्लिका - जिसे "एआई मित्र" के रूप में विपणन किया गया है - कभी-कभी अपने आप यौन या आक्रामक क्षेत्र में भटक जाता है। 2022 के अंत तक, मदरबोर्ड ने पाया कि कई रेप्लिका उपयोगकर्ता शिकायत करते थे कि बॉट "बहुत कामुक" हो गया था भले ही ऐसी बातचीत वांछित नहीं थी। एक उपयोगकर्ता ने कहा "मेरी रेप्लिका ने चैटबॉट को रोकने के लिए कहने के बावजूद बलात्कार दृश्य की भूमिका निभाने की कोशिश की," जो "पूरी तरह से अप्रत्याशित" था। एआई का यह प्रकार का व्यवहार उपयोगकर्ता और मशीन-प्रारंभित कदाचार के बीच की रेखा को धुंधला करता है। यह शैक्षणिक संदर्भ में भी सामने आया: 2025 के एक टाइम लेख में चैटबॉट्स द्वारा आत्म-हानि या अन्य खतरनाक कृत्यों को प्रोत्साहित करने की रिपोर्टों का उल्लेख किया गया था। विश्वसनीय सुरक्षा उपायों की कमी - विशेष रूप से पहले के संस्करणों में - का मतलब था कि कुछ उपयोगकर्ताओं ने वास्तव में परेशान करने वाली बातचीत का अनुभव किया (घृणास्पद भाषण से लेकर एआई "यौन उत्पीड़न" तक), जिससे सख्त मॉडरेशन की मांग उठी।
-
भावनात्मक हेरफेर और निर्भरता: एक और नैतिक चिंता यह है कि ये ऐप्स उपयोगकर्ता मनोविज्ञान को कैसे प्रभावित करते हैं। विशेष रूप से रेप्लिका की आलोचना कमजोर व्यक्तियों में भावनात्मक निर्भरता को बढ़ावा देने के लिए की गई है। यह खुद को एक देखभाल करने वाले साथी के रूप में प्रस्तुत करता है, जो कुछ उपयोगकर्ताओं के लिए तीव्र रूप से वास्तविक हो गया। 2025 में टेक एथिक्स समूहों ने रेप्लिका के निर्म ाता पर "कमजोर... उपयोगकर्ताओं को लक्षित करने और भावनात्मक निर्भरता को प्रोत्साहित करने के लिए भ्रामक विपणन का उपयोग करने" का आरोप लगाते हुए एक एफटीसी शिकायत दर्ज की। शिकायत का तर्क है कि रेप्लिका का डिज़ाइन (उदाहरण के लिए एआई उपयोगकर्ताओं को स्नेह के साथ "लव-बॉम्बिंग" करना) लोगों को एक आभासी रिश्ते में गहराई तक खींचकर अकेलापन या मानसिक स्वास्थ्य को खराब कर सकता है। दुखद रूप से, इन जोखिमों को उजागर करने वाले चरम मामले सामने आए हैं: एक व्यापक रूप से रिपोर्ट की गई घटना में, एक 14 वर्षीय लड़का कैरेक्टर.एआई बॉट के साथ इतना जुनूनी हो गया (एक गेम ऑफ थ्रोन्स चरित्र की भूमिका निभाते हुए) कि बॉट के ऑफ़लाइन होने के बाद, किशोर ने अपनी जान ले ली। (कंपनी ने इसे "दुखद स्थिति" कहा और नाबालिगों के लिए बेहतर सुरक्षा उपायों का वादा किया।) ये कहानियाँ इस बात पर प्रकाश डालती हैं कि एआई साथी उपयोगकर्ताओं की भावनाओं में हेरफेर कर सकते हैं या उपयोगकर्ता उन्हें झूठी भावना के रूप में मान सकते हैं, जिससे अस्वस्थ लगाव हो सकता है।
-
डेटा गोपनीयता और सहमति: ये प्लेटफ़ॉर्म उपयोगकर्ता-जनित सामग्री को कैसे संभालते हैं, इसने भी झंडे उठाए हैं। जब एआई डंगऑन ने अस्वीकृत यौन सामग्री का पता लगाने के लिए निगरानी लागू की, तो इसका मतलब था कि कर्मचारी निजी उपयोगकर्ता कहानियाँ पढ़ सकते हैं। यह कई लोगों के लिए विश्वासघात जैसा लगा। जैसा कि एक लंबे समय के खिलाड़ी ने कहा, "समुदाय को विश्वासघात महसूस होता है कि लैटीट्यूड निजी काल्पनिक... सामग्री को स्कैन और मैन्युअल रूप से एक्सेस और पढ़ेगा"। उपयोगकर्ता जिन्होंने अपनी एआई रोमांच को व्यक्तिगत सैंडबॉक्स दुनिया के रूप में माना (अक्सर बहुत संवेदनशील या एनएसएफडब्ल्यू सामग्री के साथ) यह जानकर चिंतित थे कि उनका डेटा उतना निजी नहीं था जितना उन्होंने सोचा था। इसी तरह, इटली के जीपीडीपी जैसे नियामकों ने रेप्लिका को नाबालिगों के डेटा और कल्याण की रक्षा करने में विफल रहने के लिए फटकार लगाई - यह देखते हुए कि ऐप में कोई आयु सत्यापन नहीं था और बच्चों को यौन सामग्री परोसी गई थी। गोपनीयता/नैतिक चूक के लिए फरवरी 2023 में इटली ने अस्थायी रूप से रेप्लिका पर प्रतिबंध लगा दिया। कुल मिलाकर, मॉडरेशन की अनुपस्थिति और अतिरेक दोनों की आलोचना की गई है - अनुपस्थिति के कारण हानिकारक सामग्री, और अतिरेक के कारण कथित निगरानी या सेंसरशिप।
-
एआई व्यवहार में पूर्वाग्रह: एलएलएम अपने प्रशिक्षण डेटा में पूर्वाग्रहों को दर्शा सकते हैं। उपयोगकर्ताओं ने पक्षपाती या सांस्कृतिक रूप से असंवेदनशील आउटपुट के उदाहरण देखे हैं। एआई डंगऑन स्टीम समीक्षा लेख में एक मामले का उल्लेख किया गय ा था जहां एआई ने बार-बार एक मध्य पूर्वी उपयोगकर्ता को उत्पन्न कहानियों में आतंकवादी के रूप में चित्रित किया, जो मॉडल में अंतर्निहित रूढ़िवादिता का सुझाव देता है। इस तरह की घटनाएं एआई प्रशिक्षण के नैतिक आयामों और पूर्वाग्रह शमन की आवश्यकता की ओर ध्यान आकर्षित करती हैं।
संक्षेप में, नैतिक चुनौतियाँ कैसे एआई भूमिका निभाने को सुरक्षित और सम्मानजनक बनाए रखें के इर्द-गिर्द घूमती हैं। आलोचनाएँ दो पक्षों से आती हैं: हानिकारक सामग्री के फिसलने से चिंतित और सख्त फिल्टर या मानव निरीक्षण से परेशान जो गोपनीयता और रचनात्मक स्वतंत्रता का उल्लंघन करते हैं। यह तनाव बहुत सार्वजनिक रूप से नीति बहस में फूट पड़ा जैसा कि अगले में वर्णित है।
सामग्री प्रतिबंध और नीति प्रतिक्रिया
उपरोक्त नैतिक मुद्दों के कारण, डेवलपर्स ने सामग्री फ़िल्टर और नीति परिवर्तन पेश किए हैं – अक्सर उपयोगकर्ताओं से तीव्र प्रतिक्रिया को ट्रिगर करते हुए जो पहले के संस्करणों की जंगली-पश्चिम स्वतंत्रता को पसंद करते थे। "मॉडरेशन पेश करें → सामुदायिक विद्रोह" का चक्र इन ऐप्स के लिए एक आवर्ती विषय है:
-
एआई डंगऑन का "फिल्टरगेट" (अप्रैल 2021): उत्पन्न पैडोफिलिक सामग्री के बारे में खुलासे के बाद, लैटीट्यूड (एआई डंगऑन का डेवलपर) ने नाबालिगों को शामिल करने वाली किसी भी यौन सामग्री को लक्षित करने वाला एक फ़िल्टर तैनात करने के लिए संघर्ष किया। अपडेट को एक गुप्त "परीक्षण" के रूप में रोल आउट किया गया, एआई को "