تخطي إلى المحتوى الرئيسي

3 منشورات تم وضع علامة عليها بـ "تجربة المستخدم"

عرض جميع العلامات

أدوات صور الذكاء الاصطناعي: حركة مرور عالية، فجوات خفية، وما يريده المستخدمون حقًا

· 8 دقائق قراءة
Lark Birdy
Chief Bird Officer

لقد أعاد الذكاء الاصطناعي تشكيل مشهد معالجة الصور بشكل كبير. من التحسينات السريعة على هواتفنا الذكية إلى التحليلات المتطورة في المختبرات الطبية، أصبحت الأدوات المدعومة بالذكاء الاصطناعي في كل مكان. لقد ارتفع استخدامها بشكل كبير، لتلبي احتياجات جمهور واسع، من المستخدمين العاديين الذين يعدلون الصور إلى المحترفين في المجالات المتخصصة. ولكن تحت سطح حركة المرور العالية للمستخدمين والإمكانيات المثيرة للإعجاب، يكشف الفحص الدقيق أن العديد من الأدوات الشائعة لا تلبي توقعات المستخدمين بشكل كامل. هناك فجوات كبيرة، ومحبطة غالبًا، في الميزات أو سهولة الاستخدام أو مدى ملاءمتها لما يحتاجه المستخدمون بالفعل.

أدوات صور الذكاء الاصطناعي

يتناول هذا المنشور عالم معالجة صور الذكاء الاصطناعي، ويفحص الأدوات الشائعة، وما يجعلها مرغوبة، والأهم من ذلك، أين تكمن الاحتياجات والفرص غير الملباة.

مجموعة الأدوات متعددة الأغراض: الشعبية ونقاط الألم

لقد أحدث الذكاء الاصطناعي ثورة في مهام تحرير الصور اليومية مثل إزالة الخلفيات، أو شحذ الصور الباهتة، أو زيادة دقة الصور. وقد اجتذبت الأدوات التي تلبي هذه الاحتياجات الملايين، ومع ذلك، غالبًا ما تشير ملاحظات المستخدمين إلى إحباطات شائعة.

إزالة الخلفية: ما وراء القص

لقد جعلت أدوات مثل Remove.bg إزالة الخلفية بنقرة واحدة حقيقة شائعة، حيث تعالج حوالي 150 مليون صورة شهريًا لحوالي 32 مليون مستخدم نشط. وتعد بساطتها ودقتها، خاصة مع الحواف المعقدة مثل الشعر، مفتاح جاذبيتها. ومع ذلك، يتوقع المستخدمون الآن أكثر من مجرد قص أساسي. يتزايد الطلب على ميزات التحرير المتكاملة، ومخرجات ذات دقة أعلى بدون رسوم باهظة، وحتى إزالة خلفية الفيديو – وهي مجالات لا يزال Remove.bg يعاني فيها من قيود حاليًا.

لقد مهد هذا الطريق لأدوات مثل PhotoRoom، التي تجمع بين إزالة الخلفية وميزات تحرير صور المنتجات (خلفيات جديدة، ظلال، إزالة الكائنات). ويبرز نموها المثير للإعجاب، مع حوالي 150 مليون عملية تنزيل للتطبيق ومعالجة ما يقرب من 5 مليارات صورة سنويًا، الطلب على حلول أكثر شمولاً. ومع ذلك، فإن تركيزها الأساسي على لقطات منتجات التجارة الإلكترونية يعني أن المستخدمين ذوي الاحتياجات الإبداعية الأكثر تعقيدًا قد يجدونها محدودة. من الواضح أن هناك فرصة لأداة تجمع بين سهولة القص السريع للذكاء الاصطناعي وقدرات التحرير اليدوي الأكثر دقة، كل ذلك ضمن واجهة واحدة.

تكبير وتحسين الصور: البحث عن الجودة والسرعة

تُستخدم أدوات تكبير الصور بالذكاء الاصطناعي مثل Let’s Enhance المستندة إلى السحابة (حوالي 1.4 مليون زيارة شهرية للموقع) وبرنامج سطح المكتب Topaz Gigapixel AI على نطاق واسع لإضفاء حياة جديدة على الصور القديمة أو تحسين جودة الصور للطباعة والوسائط الرقمية. بينما يوفر Let’s Enhance سهولة الاستخدام عبر الويب، يبلغ المستخدمون أحيانًا عن معالجة بطيئة للصور الكبيرة وقيود على الأرصدة المجانية. ويحظى Topaz Gigapixel AI بثناء المصورين المحترفين لاستعادته التفاصيل ولكنه يتطلب أجهزة قوية، وقد يكون بطيئًا، وسعره (حوالي 199 دولارًا أو اشتراكات) يمثل حاجزًا للمستخدمين العاديين.

الخيط المشترك في ملاحظات المستخدمين هو الرغبة في حلول تكبير أسرع وأخف وزنًا لا تستنزف الموارد لساعات. علاوة على ذلك، يبحث المستخدمون عن أدوات تكبير تتعامل بذكاء مع محتوى معين - الوجوه، أو النصوص، أو حتى فن الأنمي (وهو مجال تخدمه أدوات مثل Waifu2x و BigJPG، التي تجذب حوالي 1.5 مليون زيارة شهريًا). يشير هذا إلى وجود فجوة للأدوات التي يمكنها ربما اكتشاف أنواع الصور تلقائيًا وتطبيق نماذج تحسين مخصصة.

تحسين وتحرير الصور بالذكاء الاصطناعي: البحث عن التوازن وتجربة مستخدم أفضل

شهدت تطبيقات الجوال مثل Remini نموًا هائلاً (أكثر من 120 مليون عملية تنزيل بين 2019-2024) بفضل تحسيناتها المدعومة بالذكاء الاصطناعي "بنقرة واحدة"، خاصة لاستعادة الوجوه في الصور القديمة أو الباهتة. ويؤكد نجاحها شهية الجمهور للاستعادة المدعومة بالذكاء الاصطناعي. ومع ذلك، يشير المستخدمون إلى قيودها: يتفوق Remini في الوجوه ولكنه غالبًا ما يهمل الخلفيات أو عناصر الصورة الأخرى. قد تبدو التحسينات أحيانًا غير طبيعية أو تُدخل تشوهات، خاصة مع المدخلات ذات الجودة الرديئة جدًا. يشير هذا إلى الحاجة إلى أدوات أكثر توازنًا يمكنها استعادة تفاصيل الصورة بشكل عام، وليس فقط الوجوه.

لقد دمجت برامج التحرير عبر الإنترنت مثل Pixlr، التي تجذب 14-15 مليون زيارة شهرية كبديل مجاني لبرنامج فوتوشوب، ميزات الذكاء الاصطناعي مثل الإزالة التلقائية للخلفية. ومع ذلك، فقد أدت التغييرات الأخيرة، مثل طلب تسجيل الدخول أو الاشتراكات للوظائف الأساسية مثل حفظ العمل، إلى انتقادات كبيرة من المستخدمين، خاصة من المعلمين الذين اعتمدوا على إمكانية الوصول المجانية. يوضح هذا كيف يمكن حتى للأدوات الشائعة أن تخطئ في تقدير ملاءمة السوق إذا تعارضت تجربة المستخدم أو استراتيجيات تحقيق الدخل مع احتياجات المستخدم، مما قد يدفع المستخدمين للبحث عن بدائل.


image: "https://opengraph-image.blockeden.xyz/api/og-cuckoo-network?title=%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1%20%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A%20%D8%A7%D9%84%D9%85%D8%AA%D8%AE%D8%B5%D8%B5:%20%D8%AA%D8%AD%D9%88%D9%8A%D9%84%20%D8%A7%D9%84%D8%B5%D9%86%D8%A7%D8%B9%D8%A7%D8%AA%D8%8C%20%D9%84%D9%83%D9%86%20%D8%A7%D9%84%D9%81%D8%AC%D9%88%D8%A7%D8%AA%20%D9%84%D8%A7%20%D8%AA%D8%B2%D8%A7%D9%84%20%D9%82%D8%A7%D8%A6%D9%85%D8%A9"

الذكاء الاصطناعي المتخصص: تحويل الصناعات، لكن الفجوات لا تزال قائمة

في المجالات المتخصصة، يُحدث معالجة الصور بالذكاء الاصطناعي ثورة في سير العمل. ومع ذلك، تواجه هذه الأدوات المتخصصة أيضًا تحديات في تجربة المستخدم واكتمال الميزات.

الذكاء الاصطناعي في التصوير الطبي: مساعدة مع محاذير

في مجال الأشعة، تُستخدم منصات مثل Aidoc في أكثر من 1200 مركز طبي، حيث تقوم بتحليل ملايين فحوصات المرضى شهريًا للمساعدة في تحديد النتائج العاجلة. بينما يُظهر هذا ثقة متزايدة في الذكاء الاصطناعي للتقييمات الأولية، يُبلغ أخصائيو الأشعة عن قيود. إحدى المشكلات الشائعة هي أن الذكاء الاصطناعي الحالي غالبًا ما يُشير إلى تشوهات "مُشتبه بها" دون تقديم بيانات كمية (مثل قياسات الآفة) أو الاندماج بسلاسة في أنظمة إعداد التقارير. يمكن أن تؤدي الإيجابيات الكاذبة أيضًا إلى "إرهاق الإنذار" أو الارتباك إذا شاهد غير المتخصصين إبرازات الذكاء الاصطناعي التي يتم تجاهلها لاحقًا من قبل أخصائيي الأشعة. الطلب هو على ذكاء اصطناعي يقلل حقًا من عبء العمل، ويوفر بيانات قابلة للقياس الكمي، ويتكامل بسلاسة، بدلاً من إضافة تعقيدات جديدة.

الذكاء الاصطناعي في صور الأقمار الصناعية: قوي ولكنه ليس متاحًا دائمًا

يُحدث الذكاء الاصطناعي تحولًا في التحليل الجغرافي المكاني، حيث توفر شركات مثل Planet Labs صورًا عالمية يومية وتحليلات مدعومة بالذكاء الاصطناعي لأكثر من 34,000 مستخدم. على الرغم من قوتها الهائلة، يمكن أن تكون تكلفة هذه المنصات وتعقيدها باهظة بالنسبة للمنظمات الصغيرة أو المنظمات غير الحكومية أو الباحثين الأفراد. توفر المنصات المجانية مثل Google Earth Engine أو USGS EarthExplorer بيانات ولكنها غالبًا ما تفتقر إلى أدوات تحليل الذكاء الاصطناعي سهلة الاستخدام، مما يتطلب خبرة في البرمجة أو نظم المعلومات الجغرافية (GIS). هناك فجوة واضحة لذكاء اصطناعي جغرافي مكاني أكثر سهولة وبأسعار معقولة – تخيل تطبيق ويب حيث يمكن للمستخدمين بسهولة تشغيل مهام مثل اكتشاف تغيرات الأراضي أو تحليل صحة المحاصيل دون معرفة تقنية عميقة. وبالمثل، فإن تقنية تحسين دقة صور الأقمار الصناعية المدعومة بالذكاء الاصطناعي، التي تقدمها خدمات مثل OnGeo، مفيدة ولكن غالبًا ما يتم تسليمها كتقارير ثابتة بدلاً من تحسين تفاعلي في الوقت الفعلي ضمن برامج نظم المعلومات الجغرافية.

تطبيقات متخصصة أخرى: ظهور سمات مشتركة

  • الذكاء الاصطناعي في التأمين (مثال: Tractable): يُسرّع الذكاء الاصطناعي مطالبات التأمين على السيارات عن طريق تقييم أضرار السيارات من الصور، ومعالجة مليارات الدولارات من الإصلاحات سنويًا. ومع ذلك، لا يزال يقتصر على الأضرار المرئية ويتطلب إشرافًا بشريًا، مما يشير إلى الحاجة إلى دقة وشفافية أكبر في تقديرات الذكاء الاصطناعي.
  • الذكاء الاصطناعي الإبداعي (مثال: Lensa, FaceApp): شهدت التطبيقات التي تولد صورًا رمزية بالذكاء الاصطناعي أو تحويلات للوجه شعبية واسعة (وصلت تنزيلات Lensa إلى حوالي 5.8 مليون في عام 2022). ومع ذلك، لاحظ المستخدمون تحكمًا محدودًا، ومخرجات متحيزة أحيانًا، ومخاوف تتعلق بالخصوصية، مما يشير إلى الرغبة في أدوات إبداعية تمنح المستخدم مزيدًا من التحكم ومعالجة بيانات شفافة.

اكتشاف الفرص: أين يمكن لأدوات صور الذكاء الاصطناعي أن تتحسن

في كل من التطبيقات العامة والمتخصصة، تبرز باستمرار عدة مجالات رئيسية لا تُلَبَّى فيها احتياجات المستخدمين حاليًا بشكل كافٍ:

  1. سير العمل المتكامل: لقد سئم المستخدمون من التنقل بين أدوات متعددة أحادية الغرض. يتجه الاتجاه نحو الحلول الموحدة التي توفر سير عمل سلسًا، مما يقلل من صعوبة التصدير والاستيراد بين التطبيقات المختلفة. فكر في أدوات تحسين الدقة التي تتعامل أيضًا مع تحسين الوجوه وإزالة العيوب دفعة واحدة، أو الأدوات ذات الأنظمة البيئية القوية للمكونات الإضافية.
  2. جودة وتحكم وتخصيص معزز: يفقد الذكاء الاصطناعي "الصندوق الأسود" جاذبيته. يريد المستخدمون مزيدًا من التحكم في عملية الذكاء الاصطناعي – أشرطة تمرير بسيطة لقوة التأثير، وخيارات لمعاينة التغييرات، أو القدرة على توجيه الذكاء الاصطناعي. الشفافية حول ثقة الذكاء الاصطناعي في نتائجه أمر بالغ الأهمية أيضًا لبناء الثقة.
  3. أداء وقابلية توسع أفضل: تعد السرعة والقدرة على التعامل مع المعالجة الدفعية من نقاط الألم الرئيسية. سواء كان مصورًا يعالج جلسة تصوير كاملة أو مؤسسة تحلل آلاف الصور يوميًا، فإن المعالجة الفعالة هي المفتاح. قد يشمل ذلك خوارزميات أكثر تحسينًا، أو معالجة سحابية ميسورة التكلفة، أو حتى ذكاء اصطناعي على الجهاز للحصول على نتائج فورية تقريبًا.
  4. تحسين إمكانية الوصول والقدرة على تحمل التكاليف: إرهاق الاشتراكات حقيقي. يمكن أن تؤدي الرسوم المرتفعة والجدران المدفوعة المقيدة إلى إبعاد الهواة والطلاب والمستخدمين في الأسواق الناشئة. يمكن لنماذج "الفريميوم" (Freemium) ذات المستويات المجانية المفيدة حقًا، وخيارات الشراء لمرة واحدة، والأدوات المترجمة لغير الناطقين بالإنجليزية أو الاحتياجات الإقليمية المحددة، أن تستفيد من قواعد المستخدمين التي يتم تجاهلها حاليًا.
  5. تحسين أعمق خاص بالمجال: في المجالات المتخصصة، غالبًا ما تقصر نماذج الذكاء الاصطناعي العامة. إن قدرة المستخدمين على ضبط الذكاء الاصطناعي ليناسب تخصصهم المحدد – سواء كان مستشفى يدرب الذكاء الاصطناعي على بيانات مرضاه المحليين أو مهندس زراعي يعدل نموذجًا لمحصول معين – ستؤدي إلى ملاءمة أفضل للسوق ورضا المستخدم.

المسار إلى الأمام

لقد حققت أدوات معالجة الصور بالذكاء الاصطناعي بلا شك انتشارًا واسعًا وأثبتت قيمتها الهائلة. ومع ذلك، فإن الرحلة لم تنته بعد. الجوانب "غير الملباة" التي أبرزتها ملاحظات المستخدمين – الدعوات لميزات أكثر شمولاً، وسهولة استخدام بديهية، وتسعير عادل، وتحكم أكبر للمستخدم – ليست مجرد شكاوى؛ بل هي علامات واضحة للابتكار.

توفر الفجوات الحالية في السوق أرضًا خصبة للوافدين الجدد وللاعبين الحاليين للتطور. من المرجح أن يكون الجيل القادم من أدوات الصور بالذكاء الاصطناعي هو تلك الأدوات الأكثر شمولية وشفافية وقابلية للتخصيص، والتي تتكيف بصدق مع سير العمل المتنوع لمستخدميها. الشركات التي تستمع باهتمام لهذه المتطلبات المتطورة وتبتكر في كل من التكنولوجيا وتجربة المستخدم مستعدة لقيادة الطريق.

نقاط الألم لمديري المنتجات الذين يستخدمون Bolt.new و Lovable

· 27 دقائق قراءة
Lark Birdy
Chief Bird Officer

ينجذب مديرو المنتجات (PMs) إلى Bolt.new و Lovable لإنشاء نماذج أولية سريعة للتطبيقات باستخدام الذكاء الاصطناعي. تعد هذه الأدوات بتحويل "الفكرة إلى تطبيق في ثوانٍ"، مما يتيح لمدير المنتج إنشاء واجهات مستخدم وظيفية أو نماذج أولية قابلة للتطبيق (MVPs) دون الحاجة إلى فرق تطوير كاملة. ومع ذلك، تكشف ملاحظات المستخدمين في العالم الحقيقي عن العديد من نقاط الألم. تشمل الإحباطات الشائعة تجربة المستخدم المعقدة التي تسبب عدم الكفاءة، وصعوبة التعاون مع الفرق، والتكاملات المحدودة مع سلاسل الأدوات الحالية، ونقص الدعم لتخطيط المنتج على المدى الطويل، وميزات التحليلات أو التتبع غير الكافية. فيما يلي، نستعرض المشكلات الرئيسية (مع تعليقات المستخدمين المباشرة) ونقارن أداء كل أداة.

نقا�ط الألم لمديري المنتجات الذين يستخدمون Bolt.new و Lovable

مشكلات تجربة المستخدم/واجهة المستخدم التي تعيق الكفاءة

كل من Bolt.new و Lovable هما أدوات متطورة ولكن ليست خالية من العيوب، وغالبًا ما يواجه مديرو المنتجات مشكلات في تجربة المستخدم/واجهة المستخدم تبطئهم:

  • سلوك وأخطاء الذكاء الاصطناعي غير المتوقعة: يبلغ المستخدمون أن بانيات الذكاء الاصطناعي هذه غالبًا ما تنتج أخطاء أو تغييرات غير متوقعة، مما يفرض عليهم تجربة وتصحيح مملة. وصف أحد المستخدمين غير التقنيين قضاء “3 ساعات [في] أخطاء متكررة” فقط لإضافة زر، مستنفدًا جميع رموزه في هذه العملية. في الواقع، أصبحت Bolt.new سيئة السمعة لتوليدها “شاشات فارغة، وملفات مفقودة، وعمليات نشر جزئية” عندما تتجاوز المشاريع النماذج الأولية الأساسية. هذا السلوك غير المتوقع يعني أن مديري المنتجات يجب أن يراقبوا مخرجات الذكاء الاصطناعي عن كثب. أشار أحد المراجعين في G2 إلى أن مطالبات Lovable “يمكن أن تتغير بشكل غير متوقع، مما قد يكون مربكًا،” وإذا تشابك منطق التطبيق، “فقد يتطلب الأمر الكثير من العمل لإعادته إلى مساره الصحيح” – في إحدى الحالات اضطروا إلى إعادة تشغيل المشروع بأكمله. تعد عمليات إعادة الضبط وإعادة العمل هذه محبطة عندما يحاول مدير المنتج التحرك بسرعة.

  • تكاليف التكرار المرتفعة (الرموز والوقت): تستخدم كلتا المنصتين نماذج محدودة الاستخدام (Bolt.new عبر الرموز، Lovable عبر أرصدة الرسائل)، مما قد يعيق التجريب الفعال. يشتكي العديد من المستخدمين من أن نظام رموز Bolt مستهلك بشكل مفرط – كتب أحد المستخدمين: “تحتاج إلى رموز أكثر بكثير مما تتخيل،” “بمجرد ربط قاعدة بيانات… ستواجه مشكلات يجد [الذكاء الاصطناعي] صعوبة في حلها بمطالبة أو اثنتين فقط”. والنتيجة هي دورات متكررة من المطالبة والإصلاح تستهلك الحصص المتاحة. علق مستخدم آخر محبط لـ Bolt.new ساخرًا: “30% من رموزك تُستخدم لإنشاء تطبيق. الـ 70% الأخرى… لإيجاد حلول لجميع الأخطاء والمشكلات التي أنشأها Bolt.” وقد ردد هذا التعليق رد آخر: “صحيح جدًا! لقد جددت اشتراكي ثلاث مرات في شهر واحد!”. نموذج استخدام Lovable ليس محصنًا أيضًا – قد لا يكون مستواه الأساسي كافيًا حتى لتطبيق بسيط (أشار أحد المراجعين إلى أنه “اشترك في المستوى الأساسي وهذا لا يمنحني ما يكفي لبناء تطبيق بسيط”، ملاحظًا قفزة حادة في التكلفة للمستوى التالي). بالنسبة لمديري المنتجات، هذا يعني الوصول إلى الحدود أو تكبد تكلفة إضافية فقط للتكرار على نموذج أولي، وهو ما يقتل الكفاءة بوضوح.

  • محدودية التخصيص والتحكم في واجهة المستخدم: بينما تولد كلتا الأداتين واجهات مستخدم بسرعة، وجد المستخدمون أنهما تفتقران إلى قدرات الضبط الدقيق. أشاد أحد مستخدمي Lovable بالسرعة لكنه أعرب عن أسفه لأن “خيارات التخصيص [محدودة] إلى حد ما”. تبدو القوالب الجاهزة جيدة، لكن تعديلها بما يتجاوز التعديلات الأساسية يمكن أن يكون مرهقًا. وبالمثل، يغير ذكاء Lovable الاصطناعي أحيانًا رمزًا لا ينبغي تغييره – “يغير رمزًا لا ينبغي تغييره عندما أضيف شيئًا جديدًا،” لاحظ أحد المستخدمين – مما يعني أن تغييرًا صغيرًا من قبل مدير المنتج قد يؤدي عن غير قصد إلى تعطيل جزء آخر من التطبيق. من ناحية أخرى، قدمت Bolt.new في البداية القليل جدًا من التحرير المرئي. تم كل شيء من خلال المطالبات أو تحرير الكود خلف الكواليس، وهو أمر مخيف لغير المطورين. (بدأت Lovable في تقديم وضع “التحرير المرئي” لتغييرات التخطيط والنمط، لكنه في مرحلة الوصول المبكر.) إن الافتقار إلى محرر ما تراه هو ما تحصل عليه (WYSIWYG) قوي أو واجهة سحب وإفلات (في كلتا الأداتين) يمثل نقطة ألم لمديري المنتجات الذين لا يرغبون في الخوض في الكود. حتى وثائق Lovable الخاصة تعترف بهذه الفجوة، وتهدف إلى تقديم المزيد من وظائف السحب والإفلات في المستقبل لجعل العملية “أكثر سهولة للمستخدمين غير التقنيين” – مما يعني أن سهولة الاستخدام حاليًا لا تزال بحاجة إلى تحسين.

  • مشكلات سير عمل واجهة المستخدم: أشار المستخدمون إلى مشكلات أصغر في تجربة المستخدم تعطل سلاسة استخدام هذه المنصات. في Bolt.new، على سبيل المثال، سمحت الواجهة للمستخدم بالنقر على “نشر” دون تكوين هدف نشر، مما أدى إلى الارتباك (اقترح المستخدم أنها “يجب أن تطالبك بتكوين Netlify إذا حاولت النشر ولم تفعل ذلك بعد”). افتقرت Bolt أيضًا إلى أي عرض فرق (diff) أو سجل في محررها؛ فهي “تصف ما تقوم بتغييره… لكن الكود الفعلي لا يظهر فرقًا،” على عكس أدوات التطوير التقليدية. هذا يجعل من الصعب على مدير المنتج فهم ما غيره الذكاء الاصطناعي في كل تكرار، مما يعيق التعلم والثقة. بالإضافة إلى ذلك، كان سجل دردشة جلسة Bolt قصيرًا جدًا، لذلك لم يكن بإمكانك التمرير كثيرًا لمراجعة التعليمات السابقة – وهي مشكلة لمدير المنتج الذي قد يبتعد ويعود لاحقًا ويحتاج إلى السياق. معًا، تعني عيوب الواجهة هذه عبئًا ذهنيًا إضافيًا لتتبع التغييرات والحالة.

باختصار، تميل Bolt.new إلى إعطاء الأولوية للقوة الخام على الصقل، مما قد يترك مديري المنتجات يعانون من جوانبها غير المصقولة، بينما تجربة المستخدم في Lovable أكثر ودية ولكنها لا تزال محدودة في العمق. كما ذكرت إحدى المقارنات: “Bolt.new رائعة إذا كنت تريد سرعة خام وتحكمًا كاملاً… تولد تطبيقات كاملة المكدس بسرعة، لكنك ستقوم بتنظيف الأمور للإنتاج. Lovable أكثر تنظيمًا وصداقة للتصميم… مع كود أنظف جاهز للاستخدام.” بالنسبة لمدير المنتج، يعد وقت “التنظيف” هذا اعتبارًا جادًا – وقد وجد الكثيرون أن ما توفره أدوات الذكاء الاصطناعي هذه في وقت التطوير الأولي، تعيده جزئيًا في وقت تصحيح الأخطاء والتعديل.

احتكاك التعاون وسير عمل الفريق

يُعد العمل مع الفرق – المصممين، المطورين، مديري المنتجات الآخرين – جزءًا أساسيًا من دور مدير المنتج، ولكن كلاً من Bolt.new و Lovable لديهما قيود عندما يتعلق الأمر بالتعاون متعدد الأشخاص وتكامل سير العمل.

  • نقص ميزات التعاون الأصلية: لم يتم بناء أي من الأداتين في الأصل مع وضع التعاون متعدد المستخدمين في الوقت الفعلي (مثل Google Docs أو Figma) في الاعتبار. ترتبط المشاريع عادةً بحساب واحد ويتم تحريرها بواسطة شخص واحد في كل مرة. يمكن أن يخلق هذا الانعزال احتكاكًا في بيئة الفريق. على سبيل المثال، إذا قام مدير منتج بإعداد نموذج أولي في Bolt.new، فلا توجد طريقة سهلة للمصمم أو المهندس لتسجيل الدخول وتعديل نفس المشروع في وقت واحد. عملية التسليم غير سلسة: عادةً ما يقوم المرء بتصدير أو دفع الكود إلى مستودع ليتمكن الآخرون من العمل عليه (وكما هو مذكور أدناه، حتى ذلك لم يكن أمرًا بسيطًا في حالة Bolt). في الممارسة العملية، يلجأ بعض المستخدمين إلى الإنشاء باستخدام هذه الأدوات ثم نقل الكود إلى مكان آخر. اعترف أحد المشاركين في نقاش على Product Hunt: بعد استخدام Bolt أو Lovable للحصول على فكرة، قاموا “بوضعها على GitHub الخاص بي وانتهى بهم الأمر باستخدام Cursor لإنهاء البناء” – أي التحول إلى أداة مختلفة لتطوير الفريق. يشير هذا إلى أنه من أجل التعاون المستمر، يشعر المستخدمون بالحاجة إلى مغادرة بيئة Bolt/Lovable.

  • التحكم في الإصدار ومشاركة الكود: في وقت مبكر، لم يكن لدى Bolt.new تكامل Git مدمجًا، وهو ما وصفه أحد المطورين بأنه إغفال “جنوني”: “أريد تمامًا أن يكون الكود الخاص بي… في Git.” بدون التحكم الأصلي في الإصدار، كان دمج مخرجات Bolt في قاعدة كود الفريق أمرًا شاقًا. (قدمت Bolt ملف ZIP قابل للتنزيل من الكود، وظهرت ملحقات متصفح تابعة لجهات خارجية لدفع ذلك إلى GitHub). هذه خطوة إضافية يمكن أن تعطل سير العمل لمدير المنتج الذي يحاول التعاون مع المطورين. على النقيض من ذلك، تروج Lovable لميزة “لا يوجد تقييد، مزامنة مع GitHub”، مما يسمح للمستخدمين بربط مستودع ودفع تحديثات الكود. لقد كان هذا نقطة بيع للفرق – لاحظ أحد المستخدمين أنهم “استخدموا… Lovable لتكامل Git (بيئة فريق تعاونية)” بينما تم استخدام Bolt فقط للعمل الفردي السريع. في هذا الجانب، تسهل Lovable عملية تسليم المهام للفريق: يمكن لمدير المنتج إنشاء تطبيق والحصول على الكود على الفور في GitHub للمطورين لمراجعته أو متابعته. حاولت Bolt.new منذ ذلك الحين التحسين، بإضافة موصل GitHub عبر StackBlitz، لكن ملاحظات المجتمع تشير إلى أنه لا يزال غير سلس. حتى مع Git، يمكن أن يكون الكود المدعوم بالذكاء الاصطناعي صعبًا على الفرق في فهمه بدون توثيق، نظرًا لأن الكود يتم إنشاؤه بواسطة الآلة وأحيانًا لا يكون واضحًا بذاته.

  • تكامل سير العمل (فرق التصميم والتطوير): غالبًا ما يحتاج مديرو المنتجات إلى إشراك المصممين مبكرًا أو التأكد من أن ما يبنونه يتوافق مع مواصفات التصميم. حاولت كلتا الأداتين إجراء عمليات تكامل هنا (سيتم مناقشتها بمزيد من التفصيل أدناه)، ولكن لا يزال هناك احتكاك. تتمثل إحدى مزايا Bolt.new للمطورين في أنها تتيح تحكمًا مباشرًا أكبر في حزمة التقنيات – “إنها تتيح لك استخدام أي إطار عمل،” كما لاحظ مؤسس Lovable – وهو ما قد يرضي عضو فريق التطوير الذي يرغب في اختيار التكنولوجيا. ومع ذلك، فإن نفس المرونة تعني أن Bolt أقرب إلى ساحة لعب للمطورين منها إلى أداة موجهة لمديري المنتجات. في المقابل، قد يحد النهج المنظم لـ Lovable (مع حزمة تقنيات موصى بها، وواجهة خلفية متكاملة، وما إلى ذلك) من حرية المطور، ولكنه يوفر مسارًا أكثر توجيهًا يقدره غير المهندسين. اعتمادًا على الفريق، يمكن أن يكون هذا الاختلاف نقطة ألم: إما أن Bolt تبدو غير محددة الرأي للغاية (قد يختار مدير المنتج عن طريق الخطأ إعدادًا لا يحبه الفريق)، أو أن Lovable تبدو مقيدة للغاية (لا تستخدم أطر العمل التي يفضلها فريق التطوير). في كلتا الحالتين، يتطلب مواءمة النموذج الأولي مع معايير الفريق تنسيقًا إضافيًا.

  • أدوات التعاون الخارجية: لا تتكامل Bolt.new ولا Lovable بشكل مباشر مع مجموعات التعاون الشائعة (لا يوجد تكامل مباشر مع Slack للإشعارات، ولا تكامل مع Jira لتتبع المشكلات، وما إلى ذلك). هذا يعني أن أي تحديثات أو تقدم في الأداة يجب أن يتم إبلاغها يدويًا للفريق. على سبيل المثال، إذا قام مدير منتج بإنشاء نموذج أولي ويريد الحصول على ملاحظات، فيجب عليه مشاركة رابط التطبيق المنشور أو مستودع GitHub عبر البريد الإلكتروني/Slack بنفسه – لن تقوم المنصات بإخطار الفريق أو الربط بتذاكر المشروع تلقائيًا. يمكن أن يؤدي هذا النقص في التكامل مع سير عمل الفريق إلى فجوات في التواصل. لا يمكن لمدير المنتج تعيين مهام داخل Bolt/Lovable، أو ترك تعليقات لزميل في الفريق على عنصر واجهة مستخدم معين، بالطريقة التي قد يفعلونها في أداة تصميم مثل Figma. يجب أن يتم كل شيء بشكل مخصص، خارج الأداة. في الأساس، تم تصميم Bolt.new و Lovable كبيئات أحادية المستخدم، مما يشكل تحديًا عندما يريد مدير المنتج استخدامها في سياق متعدد المستخدمين.

باختصار، تتفوق Lovable على Bolt.new قليلاً في سيناريوهات الفريق (بفضل مزامنة GitHub والنهج المنظم الذي يجده غير المبرمجين أسهل في المتابعة). قد يتسامح مدير المنتج الذي يعمل بمفرده مع إعداد Bolt الفردي، ولكن إذا احتاج إلى إشراك الآخرين، يمكن أن تصبح هذه الأدوات نقاط اختناق ما لم ينشئ الفريق عملية يدوية حولها. تعد فجوة التعاون سببًا رئيسيًا لرؤيتنا للمستخدمين يقومون بتصدير عملهم ومواصلته في مكان آخر – يمكن للذكاء الاصطناعي أن يطلق مشروعًا بسرعة، ولكن لا تزال هناك حاجة إلى الأدوات التقليدية للمضي به قدمًا بشكل تعاوني.

تحديات التكامل مع الأدوات الأخرى

يتضمن تطوير المنتجات الحديثة مجموعة من الأدوات - منصات التصميم، قواعد البيانات، خدمات الطرف الثالث، إلخ. يقدر مديرو المنتجات البرامج التي تتكامل بسلاسة مع مجموعتهم الحالية من الأدوات، لكن Bolt.new و Lovable لديهما نظام بيئي محدود للتكامل، مما يتطلب غالبًا حلولًا بديلة:

  • تكامل أدوات التصميم: غالبًا ما يبدأ مديرو المنتجات بنماذج التصميم أو المخططات الهيكلية. أدرك كل من Bolt و Lovable ذلك وقدما طرقًا لاستيراد التصميمات، ومع ذلك، فإن ملاحظات المستخدمين حول هذه الميزات متباينة. أضاف Bolt.new استيراد Figma (المبني على مكون Anima الإضافي) لتوليد التعليمات البرمجية من التصميمات، لكنه لم يرتقِ إلى مستوى التوقعات. لاحظ أحد المختبرين الأوائل أن مقاطع الفيديو الترويجية أظهرت عمليات استيراد بسيطة خالية من العيوب، “ولكن ماذا عن الأجزاء التي لا [تعمل]؟ إذا كانت الأداة ستغير قواعد اللعبة، فيجب أن تتعامل مع التعقيد - وليس فقط الأشياء السهلة.” عمليًا، واجه Bolt صعوبة مع ملفات Figma التي لم تكن مرتبة للغاية. وجد مصمم تجربة مستخدم (UX) جرب تكامل Bolt مع Figma أنه مخيب للآمال لأي شيء يتجاوز التخطيطات الأساسية، مما يشير إلى أن هذا التكامل يمكن أن “يتعثر في التصميمات المعقدة”. أطلق Lovable مؤخرًا مسار عمله الخاص من Figma إلى التعليمات البرمجية عبر تكامل Builder.io. قد ينتج عن هذا نتائج أنظف (نظرًا لأن Builder.io يفسر Figma ويسلمه إلى Lovable)، ولكن كونه جديدًا، لم يتم إثباته على نطاق واسع بعد. أشاد أحد المقارنات على الأقل بـ Lovable لـ “خيارات واجهة المستخدم الأفضل (Figma/Builder.io)” ونهج أكثر ملاءمة للتصميم. ومع ذلك، كان “أبطأ قليلاً في إنشاء التحديثات” مقايضة تم الإبلاغ عنها مقابل دقة التصميم تلك. بالنسبة لمديري المنتجات، الخلاصة هي أن استيراد التصميمات ليس دائمًا بسيطًا بضغطة زر - قد يقضون وقتًا في تعديل ملف Figma ليناسب قدرات الذكاء الاصطناعي أو تنظيف واجهة المستخدم التي تم إنشاؤها بعد الاستيراد. وهذا يضيف احتكاكًا لسير العمل بين المصممين وأداة الذكاء الاصطناعي.

  • تكامل الواجهة الخلفية وقواعد البيانات: تركز كلتا الأداتين على توليد الواجهة الأمامية، لكن التطبيقات الحقيقية تحتاج إلى بيانات ومصادقة. الحل المختار لكل من Bolt.new و Lovable هو التكامل مع Supabase (قاعدة بيانات PostgreSQL مستضافة + خدمة مصادقة). يقدر المستخدمون وجود هذه التكاملات، ولكن هناك فروق دقيقة في التنفيذ. في البداية، كان تكامل Bolt.new مع Supabase بدائيًا؛ بينما اعتُبر تكامل Lovable “أكثر إحكامًا [و] وضوحًا” بالمقارنة. أبرز مؤسس Lovable أن نظام Lovable مضبوط بدقة للتعامل مع "التعثر" بشكل أقل تكرارًا، بما في ذلك عند دمج قواعد البيانات. ومع ذلك، لا يزال استخدام Supabase يتطلب من مدير المنتج فهمًا لبعض مخططات قواعد البيانات. في مراجعة Lovable على Medium، اضطر المؤلف إلى إنشاء جداول يدويًا في Supabase وتحميل البيانات، ثم ربطها عبر مفاتيح API للحصول على تطبيق يعمل بكامل طاقته (على سبيل المثال، لأحداث وأماكن تطبيق تذاكر). كانت هذه العملية قابلة للتنفيذ، ولكنها ليست تافهة - لا يوجد اكتشاف تلقائي لنموذج بياناتك، يجب على مدير المنتج تعريفه. إذا حدث أي خطأ في الاتصال، فإن تصحيح الأخطاء يقع على عاتق المستخدم مرة أخرى. يحاول Lovable المساعدة (قدم مساعد الذكاء الاصطناعي إرشادات عند حدوث خطأ أثناء ربط Supabase)، لكنه ليس مضمونًا. قام Bolt.new مؤخرًا فقط “بشحن الكثير من التحسينات لتكامل Supabase الخاص بهم” بعد شكاوى المستخدمين. قبل ذلك، كما قال أحد المستخدمين، “يتعامل Bolt... مع عمل الواجهة الأمامية ولكنه لا يقدم الكثير من المساعدة في الواجهة الخلفية” – بخلاف الإعدادات المسبقة البسيطة، كنت وحدك فيما يتعلق بمنطق الخادم. باختصار، بينما جعلت كلتا الأداتين تكامل الواجهة الخلفية ممكنًا، إلا أنه تكامل سطحي. يمكن لمديري المنتجات أن يجدوا أنفسهم مقيدين بما يقدمه Supabase؛ أي شيء أكثر تخصيصًا (مثل قاعدة بيانات مختلفة أو منطق خادم معقد) غير مدعوم (لا يقوم Bolt و Lovable بتوليد تعليمات برمجية عشوائية للواجهة الخلفية بلغات مثل Python/Java، على سبيل المثال). قد يكون هذا محبطًا عندما تتجاوز متطلبات المنتج عمليات CRUD الأساسية.

  • خدمات الطرف الثالث وواجهات برمجة التطبيقات (APIs): جزء أساسي من المنتجات الحديثة هو الاتصال بالخدمات (بوابات الدفع، الخرائط، التحليلات، إلخ). يمكن لـ Lovable و Bolt دمج واجهات برمجة التطبيقات، ولكن فقط من خلال واجهة الأوامر بدلاً من المكونات الإضافية المدمجة مسبقًا. على سبيل المثال، أوضح مستخدم على Reddit كيف يمكن للمرء أن يخبر الذكاء الاصطناعي شيئًا مثل “أحتاج إلى واجهة برمجة تطبيقات للطقس،” وستختار الأداة واجهة برمجة تطبيقات مجانية شائعة وتطلب مفتاح API. هذا مثير للإعجاب، ولكنه أيضًا غامض - يجب على مدير المنتج أن يثق بأن الذكاء الاصطناعي يختار واجهة برمجة تطبيقات مناسبة وينفذ الاستدعاءات بشكل صحيح. لا يوجد متجر تطبيقات للتكاملات أو تكوين رسومي؛ كل شيء يعتمد على كيفية إعطاء الأوامر. بالنسبة للخدمات الشائعة مثل المدفوعات أو البريد الإلكتروني، يبدو أن Lovable يتمتع بميزة من خلال دمجها: وفقًا لمؤسسها، يمتلك Lovable “تكاملات للمدفوعات + رسائل البريد الإلكتروني” ضمن ميزاته. إذا كان هذا صحيحًا، فهذا يعني أن مدير المنتج يمكنه بسهولة أكبر أن يطلب من Lovable إضافة نموذج دفع Stripe أو إرسال رسائل بريد إلكتروني عبر خدمة متكاملة، بينما مع Bolt قد يضطر المرء إلى إعداد ذلك يدويًا عبر استدعاءات API. ومع ذلك، فإن الوثائق حول هذه الأمور قليلة - من المحتمل أنها لا تزال تُعالج من خلال وكيل الذكاء الاصطناعي بدلاً من إعداد بنظام "النقر والتحديد". يمكن اعتبار نقص وحدات التكامل الواضحة والموجهة للمستخدم نقطة ضعف: يتطلب الأمر التجربة والخطأ لدمج شيء جديد، وإذا لم يعرف الذكاء الاصطناعي خدمة معينة، فقد يواجه مدير المنتج طريقًا مسدودًا. في الأساس، التكاملات ممكنة ولكنها ليست "جاهزة للاستخدام المباشر" (plug-and-play).

  • تكامل سلسلة أدوات المؤسسة: عندما يتعلق الأمر بالتكامل مع سلسلة أدوات إدارة المنتجات نفسها (Jira للتذاكر، Slack للإشعارات، إلخ)، لا يقدم Bolt.new و Lovable حاليًا أي شيء جاهز للاستخدام. تعمل هذه المنصات بمعزل عن بعضها البعض. ونتيجة لذلك، يتعين على مدير المنتج الذي يستخدمها تحديث الأنظمة الأخرى يدويًا. على سبيل المثال، إذا كان لدى مدير المنتج قصة مستخدم في Jira ("كمستخدم أريد الميزة X") وقاموا بتطوير نموذج أولي لتلك الميزة في Lovable، فلا توجد طريقة لتمييز تلك القصة على أنها مكتملة من داخل Lovable - يجب على مدير المنتج الدخول إلى Jira والقيام بذلك. وبالمثل، لن يقوم أي روبوت Slack بالإعلان عن "النموذج الأولي جاهز" عندما ينتهي Bolt من البناء؛ يجب على مدير المنتج الحصول على رابط المعاينة ومشاركته. هذه الفجوة ليست مفاجئة بالنظر إلى التركيز المبكر لهذه الأدوات، لكنها تعيق كفاءة سير العمل في بيئة الفريق. إنه في الأساس تبديل سياق: تعمل في Bolt/Lovable للبناء، ثم تنتقل إلى أدوات إدارة المنتج الخاصة بك لتسجيل التقدم، ثم ربما إلى أدوات الاتصال الخاصة بك لعرضها على الفريق. يمكن للبرامج المتكاملة تبسيط ذلك، ولكن حاليًا يقع هذا العبء على عاتق مدير المنتج.

باختصار، يتكامل Bolt.new و Lovable جيدًا في بعض المجالات التقنية (خاصة مع Supabase للبيانات)، لكنهما يقصران في التكامل مع النظام البيئي الأوسع للأدوات التي يستخدمها مديرو المنتجات يوميًا. لقد حقق Lovable تقدمًا أكبر قليلاً في تقديم مسارات مدمجة (مثل النشر بنقرة واحدة، GitHub المباشر، بعض الخدمات المدمجة)، بينما يتطلب Bolt غالبًا خدمات خارجية (Netlify، إعداد API يدوي). تباينت مراجعة NoCode MBA هذا صراحةً: “يوفر Lovable نشرًا مدمجًا، بينما يعتمد Bolt على خدمات خارجية مثل Netlify”. إن الجهد المبذول لسد هذه الفجوات - سواء عن طريق نسخ التعليمات البرمجية يدويًا، أو العبث بالمكونات الإضافية للجهات الخارجية، أو إعادة إدخال التحديثات في أنظمة أخرى - هو مصدر إزعاج حقيقي لمديري المنتجات الذين يبحثون عن تجربة سلسة.

قيود في تخطيط المنتج وإدارة خارطة الطريق

يتجاوز دور مديري المنتجات بناء نموذج أولي سريع ليشمل مسؤولية تخطيط الميزات، وإدارة خرائط الطريق، وضمان تطور المنتج. هنا، نطاق Bolt.new و Lovable ضيق جدًا – فهما يساعدان في إنشاء تطبيق، ولكنهما لا يقدمان أي أدوات لتخطيط المنتج الأوسع أو إدارة المشاريع المستمرة.

  • لا يوجد إدارة للمتطلبات أو قائمة المهام (Backlog): لا تتضمن أدوات بناء التطبيقات بالذكاء الاصطناعي هذه أي مفهوم لقائمة المهام (backlog)، أو قصص المستخدمين، أو المهام. لا يمكن لمدير المنتج استخدام Bolt.new أو Lovable لسرد الميزات ثم معالجتها واحدة تلو الأخرى بطريقة منظمة. بدلاً من ذلك، يتم دفع التطوير بواسطة الأوامر ("بناء X"، "الآن أضف Y")، وتقوم الأدوات بإنشاء التطبيق أو تعديله وفقًا لذلك. هذا يعمل للنماذج الأولية المخصصة ولكن لا يترجم إلى خارطة طريق مُدارة. إذا أراد مدير المنتج تحديد أولويات ميزات معينة أو وضع خطة إصدار، فسيظل بحاجة إلى أدوات خارجية (مثل Jira أو Trello أو جدول بيانات بسيط) للقيام بذلك. لن يذكرك الذكاء الاصطناعي بما هو معلق أو كيف ترتبط الميزات ببعضها البعض – فليس لديه مفهوم لجدول زمني للمشروع أو تبعيات، فقط التعليمات الفورية التي تقدمها.

  • صعوبة إدارة المشاريع الكبيرة: مع ازدياد تعقيد المشاريع، يجد المستخدمون أن هذه المنصات تصل إلى طريق مسدود. لاحظ أحد المراجعين على G2 أن “عندما بدأت في تنمية محفظتي، أدركت أنه لا توجد العديد من الأدوات للتعامل مع المشاريع المعقدة أو الكبيرة” في Lovable. وينطبق هذا الشعور على Bolt.new أيضًا. فهما مُحسّنان للتطبيقات الصغيرة الجديدة (greenfield)؛ إذا حاولت بناء منتج كبير بمكونات متعددة، وأدوار مستخدمين، ومنطق معقد، وما إلى ذلك، تصبح العملية غير عملية. لا يوجد دعم للمكونات أو الحزم بخلاف ما توفره أطر عمل الكود الأساسية. وبما أن أيًا من الأداتين لا يسمح بالاتصال بقاعدة كود موجودة، فلا يمكنك دمج التحسينات التي تم إنشاؤها بواسطة الذكاء الاصطناعي تدريجيًا في مشروع طويل الأمد. هذا يعني أنهما غير مناسبين للتطوير التكراري على منتج ناضج. عمليًا، إذا احتاج نموذج أولي تم بناؤه باستخدام Lovable إلى أن يصبح منتجًا حقيقيًا، غالبًا ما تقوم الفرق بإعادة كتابته أو إعادة هيكلته خارج الأداة بمجرد وصوله إلى حجم معين. من منظور مدير المنتج، يعني هذا القيد أنك تتعامل مع مخرجات Bolt/Lovable كنماذج أولية يمكن التخلص منها أو كنقاط بداية، وليس كمنتج فعلي سيتم توسيعه – فالأدوات نفسها لا تدعم هذه الرحلة.

  • طبيعة التوليد لمرة واحدة بواسطة الذكاء الاصطناعي: تعمل Bolt.new و Lovable أشبه بـ معالجات (wizards) أكثر من بيئات تطوير مستمرة. تتألقان في مرحلة التفكير المبكرة (لديك فكرة، تقوم بتوجيهها، تحصل على تطبيق أساسي). لكنهما تفتقران إلى الميزات اللازمة للتخطيط والمراقبة المستمرة لتقدم المنتج. على سبيل المثال، لا يوجد مفهوم لجدول زمني لخارطة الطريق حيث يمكنك إدراج "السباق الأول (Sprint 1): تنفيذ تسجيل الدخول (تم بواسطة الذكاء الاصطناعي)، السباق الثاني (Sprint 2): إدارة الملف الشخصي (قيد التنفيذ)"، وما إلى ذلك. لا يمكنك أيضًا الرجوع بسهولة إلى إصدار سابق أو إنشاء فرع لميزة جديدة – وهي ممارسات قياسية في تطوير المنتجات. هذا غالبًا ما يجبر مديري المنتجات على تبني عقلية "الاستخدام لمرة واحدة": استخدم الذكاء الاصطناعي للتحقق من صحة فكرة بسرعة، ولكن بعد ذلك أعد تشغيل التطوير "الصحيح" في بيئة تقليدية لأي شيء يتجاوز النموذج الأولي. يمكن أن يكون هذا التسليم نقطة ألم لأنه يكرر الجهد بشكل أساسي أو يتطلب ترجمة النموذج الأولي إلى تنسيق أكثر قابلية للصيانة.

  • لا توجد ميزات لمشاركة أصحاب المصلحة: في تخطيط المنتج، غالبًا ما يجمع مديرو المنتجات الملاحظات ويعدلون خارطة الطريق. لا تساعد أدوات الذكاء الاصطناعي هذه في ذلك أيضًا. على سبيل المثال، لا يمكنك إنشاء سيناريوهات مختلفة أو خيارات لخارطة طريق المنتج داخل Bolt/Lovable لمناقشتها مع أصحاب المصلحة – لا يوجد عرض زمني، ولا تصويت على الميزات، ولا شيء من هذا القبيل. يجب أن تتم أي مناقشات أو قرارات حول ما يجب بناؤه بعد ذلك خارج المنصة. ربما كان مدير المنتج يأمل، على سبيل المثال، أنه بينما يقوم الذكاء الاصطناعي ببناء التطبيق، يمكنه أيضًا توفير قائمة بالميزات أو مواصفات تم تنفيذها، والتي يمكن أن تكون بمثابة وثيقة حية للفريق. ولكن بدلاً من ذلك، فإن التوثيق محدود (سجل الدردشة أو تعليقات الكود هي السجل الوحيد، وكما ذكرنا، سجل دردشة Bolt محدود الطول). هذا النقص في التوثيق المدمج أو دعم التخطيط يعني أن مدير المنتج يجب عليه توثيق ما فعله الذكاء الاصطناعي وما تبقى يدويًا لأي نوع من خارطة الطريق، وهو عمل إضافي.

في جوهرها، Bolt.new و Lovable ليسا بديلين لأدوات إدارة المنتجات – إنهما أدوات تطوير مساعدة. إنهما “ينشئان تطبيقات جديدة” من الصفر ولكنهما لن ينضما إليك في تفصيل أو إدارة تطور المنتج. لقد وجد مديرو المنتجات أنه بمجرد إصدار النموذج الأولي الأولي، يجب عليهم التحول إلى دورات التخطيط والتطوير التقليدية، لأن أدوات الذكاء الاصطناعي لن توجه هذه العملية. وكما خلص أحد المدونين التقنيين بعد الاختبار، “يعمل Lovable بوضوح على تسريع النماذج الأولية ولكنه لا يلغي الحاجة إلى الخبرة البشرية... إنه ليس حلًا سحريًا يلغي كل التدخل البشري في تطوير المنتجات”. هذا يؤكد أن التخطيط، وتحديد الأولويات، والتحسين – وهي أنشطة أساسية لمدير المنتج – لا تزال تعتمد على البشر وأدواتهم القياسية، مما يترك فجوة فيما يمكن أن تدعمه منصات الذكاء الاصطناعي هذه نفسها.

(Lovable.dev vs Bolt.new vs Fine: مقارنة بين أدوات بناء التطبيقات بالذكاء الاصطناعي ووكلاء البرمجة للشركات الناشئة) تتفوق معظم أدوات بناء التطبيقات بالذكاء الاصطناعي (مثل Bolt.new و Lovable) في إنشاء نموذج أولي سريع للواجهة الأمامية، لكنها تفتقر إلى القدرات اللازمة للكود الخلفي المعقد، والاختبار الشامل، أو الصيانة طويلة الأجل. يجد مديرو المنتجات أن هذه الأدوات، على الرغم من كونها رائعة لإثبات المفهوم، لا يمكنها التعامل مع دورة حياة المنتج الكاملة بعد البناء الأولي.

مشاكل التحليلات والرؤى وتتبع التقدم

بمجرد بناء منتج (أو حتى نموذج أولي)، يرغب مدير المنتج في تتبع أدائه – سواء من حيث تقدم التطوير أو تفاعل المستخدمين. هنا، لا يوفر Bolt.new و Lovable أي تحليلات أو تتبع مدمج تقريبًا، مما قد يمثل نقطة ألم كبيرة.

  • لا توجد تحليلات مستخدم مدمجة: إذا قام مدير المنتج بنشر تطبيق عبر هذه المنصات، فلا توجد لوحة تحكم لرؤية مقاييس الاستخدام (مثل عدد المستخدمين، النقرات، التحويلات). يجب إضافة أي تحليلات للمنتج يدويًا إلى التطبيق الذي تم إنشاؤه. على سبيل المثال، للحصول على بيانات حركة المرور الأساسية، سيتعين على مدير المنتج إدراج Google Analytics أو نص برمجي مشابه في رمز التطبيق. تشير موارد مساعدة Lovable الخاصة بذلك صراحةً: “إذا كنت تستخدم Lovable… فأنت بحاجة إلى إضافة رمز تتبع Google Analytics يدويًا… لا يوجد تكامل مباشر.”. هذا يعني إعدادًا إضافيًا وخطوات تقنية يجب على مدير المنتج تنسيقها (من المحتمل أن يحتاج إلى مساعدة مطور إذا لم يكن لديه معرفة بالبرمجة). إن غياب التحليلات المتكاملة أمر مزعج لأن أحد الأسباب الرئيسية لإنشاء النماذج الأولية بسرعة هو جمع ملاحظات المستخدمين – لكن الأدوات لن تجمع ذلك لك. إذا أطلق مدير المنتج نموذجًا أوليًا (MVP) تم إنشاؤه بواسطة Lovable لمجموعة اختبار، فسيتعين عليهم تجهيزه بأنفسهم أو استخدام خدمات تحليلات خارجية لمعرفة أي شيء عن سلوك المستخدم. هذا ممكن، ولكنه يضيف عبئًا إضافيًا ويتطلب الإلمام بتحرير الكود أو استخدام واجهة المنصة المحدودة لإدراج النصوص البرمجية.

  • رؤية محدودة لعملية الذكاء الاصطناعي: على جانب التطوير، قد يرغب مديرو المنتجات أيضًا في الحصول على تحليلات أو ملاحظات حول كيفية أداء وكيل الذكاء الاصطناعي – على سبيل المثال، مقاييس حول عدد المحاولات التي استغرقتها لتصحيح شيء ما، أو الأجزاء التي غيرها في الكود بشكل متكرر. يمكن أن تساعد هذه الرؤى مدير المنتج في تحديد المناطق الخطرة في التطبيق أو قياس الثقة في المكونات التي بناها الذكاء الاصطناعي. ومع ذلك، لا يوفر Bolt.new ولا Lovable الكثير من هذه المعلومات. بصرف النظر عن المقاييس الأولية مثل الرموز المستخدمة أو الرسائل المرسلة، لا يوجد سجل غني لعملية اتخاذ القرار للذكاء الاصطناعي. في الواقع، كما ذكرنا، لم يُظهر Bolt.new حتى فروقات تغييرات الكود. كان هذا النقص في الشفافية محبطًا لدرجة أن بعض المستخدمين اتهموا ذكاء Bolt الاصطناعي باستهلاك الرموز لمجرد الظهور بمظهر مشغول: “مُحسّن لمظهر النشاط بدلاً من حل المشكلات الحقيقي،” كما لاحظ أحد المراجعين حول نمط استهلاك الرموز. يشير ذلك إلى أن مديري المنتجات يحصلون على القليل جدًا من الرؤى حول ما إذا كان "عمل" الذكاء الاصطناعي فعالًا أم مهدرًا، بخلاف مشاهدة النتيجة. إنه في الأساس صندوق أسود. عندما تسوء الأمور، يتعين على مدير المنتج أن يثق بشكل أعمى في تفسير الذكاء الاصطناعي أو يتعمق في الكود الخام – لا توجد تحليلات لتحديد، على سبيل المثال، “فشلت 20% من محاولات التوليد بسبب X.”

  • تتبع التقدم وسجل الإصدارات: من منظور إدارة المشروع، لا تقدم أي من الأداتين ميزات لتتبع التقدم بمرور الوقت. لا يوجد مخطط حرق (burn-down chart)، ولا نسبة تقدم، ولا حتى قائمة تحقق بسيطة بالميزات المكتملة. الجدول الزمني الوحيد هو سجل المحادثات (لواجهة Lovable القائمة على الدردشة) أو تسلسل الأوامر. وكما ذكرنا سابقًا، فإن نافذة سجل Bolt.new محدودة، مما يعني أنه لا يمكنك التمرير للوراء إلى بداية جلسة طويلة. بدون سجل موثوق أو ملخص، قد يفقد مدير المنتج تتبع ما فعله الذكاء الاصطناعي. لا يوجد أيضًا مفهوم لـ المراحل الرئيسية أو الإصدارات. إذا أراد مدير المنتج مقارنة النموذج الأولي الحالي بإصدار الأسبوع الماضي، فإن الأدوات لا توفر هذه الإمكانية (ما لم يحفظ مدير المنتج نسخة من الكود يدويًا). يمكن أن يجعل هذا النقص في السجل أو إدارة الحالة من الصعب قياس التقدم. على سبيل المثال، إذا كان لدى مدير المنتج هدف مثل “تحسين وقت تحميل التطبيق بنسبة 30%،” فلا توجد أداة قياس أو تحليل أداء مدمجة في Bolt/Lovable للمساعدة في قياس ذلك – سيحتاج مدير المنتج إلى تصدير التطبيق واستخدام أدوات تحليل خارجية.

  • حلقات ملاحظات المستخدمين: جمع الملاحظات النوعية (مثل من المستخدمين التجريبيين أو أصحاب المصلحة) يقع خارج نطاق هذه الأدوات أيضًا. ربما كان مدير المنتج يأمل في شيء مثل طريقة سهلة للمختبرين لتقديم الملاحظات من داخل النموذج الأولي أو أن يقترح الذكاء الاصطناعي تحسينات بناءً على تفاعلات المستخدمين، لكن هذه الميزات غير موجودة. يجب تنظيم أي حلقة ملاحظات بشكل منفصل (استبيانات، جلسات اختبار يدوية، إلخ). بشكل أساسي، بمجرد بناء التطبيق ونشره، يتنحى Bolt.new و Lovable جانبًا – لا يساعدان في مراقبة كيفية استقبال التطبيق أو أدائه. هذه فجوة كلاسيكية بين التطوير وإدارة المنتج: الأدوات تعاملت مع الأول (إلى حد ما)، لكنها لا توفر شيئًا للأخير.

لتوضيح ذلك، قد يستخدم مدير منتج في شركة ناشئة Lovable لبناء تطبيق تجريبي لمشروع تجريبي، ولكن عند تقديم النتائج لفريقه أو المستثمرين، سيتعين عليه الاعتماد على الحكايات أو التحليلات الخارجية للإبلاغ عن الاستخدام لأن Lovable نفسه لن يعرض تلك البيانات. إذا أرادوا تتبع ما إذا كان تغيير حديث قد حسن تفاعل المستخدمين، فيجب عليهم تجهيز التطبيق بالتحليلات وربما منطق اختبار A/B بأنفسهم. بالنسبة لمديري المنتجات المعتادين على المنصات الأكثر تكاملاً (حتى شيء مثل Webflow للمواقع الإلكترونية لديه شكل من أشكال الإحصائيات، أو Firebase للتطبيقات لديه تحليلات)، فإن صمت Bolt/Lovable بعد النشر أمر ملحوظ.

باختصار، يعني نقص التحليلات والتتبع أن مديري المنتجات يجب أن يعودوا إلى الأساليب التقليدية لقياس النجاح. إنه توقع ضائع – فبعد استخدام أداة ذكاء اصطناعي متقدمة لبناء المنتج، قد يتوقع المرء مساعدة متقدمة من الذكاء الاصطناعي في تحليله، لكن ذلك ليس (حتى الآن) جزءًا من الحزمة. كما قال أحد الأدلة، إذا كنت تريد تحليلات مع Lovable، فستحتاج إلى القيام بذلك بالطريقة القديمة لأن “GA غير مدمج”. وعندما يتعلق الأمر بتتبع تقدم التطوير، فإن المسؤولية تقع بالكامل على عاتق مدير المنتج للحفاظ يدويًا على أي حالة للمشروع خارج الأداة. هذا الانفصال يمثل نقطة ألم كبيرة لمديري المنتجات الذين يحاولون تبسيط سير عملهم من الفكرة وصولاً إلى ملاحظات المستخدمين.

الخلاصة: منظور مقارن

من قصص المستخدمين الحقيقية والمراجعات، يتضح أن لكل من Bolt.new وLovable نقاط قوة ولكن أيضًا تحديات كبيرة لمديري المنتجات. كلاهما يقدم أداءً مبهرًا في وعدهما الأساسي – توليد نماذج أولية لتطبيقات عاملة بسرعة – وهو ما جعلهما يجذبان الآلاف من المستخدمين. ومع ذلك، عند النظر إليهما من منظور مدير منتج لا يقتصر دوره على بناء المنتج فحسب، بل يشمل أيضًا التعاون والتخطيط والتكرار عليه، تظهر هذه الأدوات قيودًا متشابهة.

  • يميل Bolt.new إلى توفير مرونة أكبر (يمكنك اختيار الأطر، وتعديل الكود بشكل مباشر أكثر) وسرعة خام، ولكن على حساب صيانة أعلى. يمكن لمديري المنتجات الذين يفتقرون إلى الخبرة في البرمجة أن يواجهوا صعوبات عندما يواجه Bolt أخطاء أو يتطلب إصلاحات يدوية. نموذجه القائم على الرموز وميزات التكامل القليلة في البداية غالبًا ما أدت إلى الإحباط وخطوات إضافية. يمكن اعتبار Bolt أداة قوية ولكنها فظة – رائعة للاختراقات السريعة أو للمستخدم التقني، وأقل ملاءمة لسير عمل فريق منظم.

  • يضع Lovable نفسه كـ "مهندس الذكاء الاصطناعي الشامل" الأكثر سهولة في الاستخدام، مما يترجم إلى تجربة أكثر سلاسة إلى حد ما لغير المهندسين. إنه يخفي المزيد من الجوانب الصعبة (مع النشر المدمج، ومزامنة GitHub، وما إلى ذلك) ولديه ميل لتوجيه المستخدم بمخرجات منظمة (كود أولي أنظف، تكامل التصميم). وهذا يعني أن مديري المنتجات عمومًا “يتقدمون أكثر مع Lovable” قبل الحاجة إلى تدخل المطورين. ومع ذلك، يشترك Lovable في العديد من نقاط الضعف الأساسية لـ Bolt: إنه ليس سحرًا – لا يزال المستخدمون يواجهون سلوكيات ذكاء اصطناعي مربكة، ويضطرون إلى إعادة التشغيل في بعض الأحيان، ويجب عليهم مغادرة المنصة لأي شيء يتجاوز بناء النموذج الأولي. علاوة على ذلك، لا تزال الميزات الإضافية لـ Lovable (مثل التحرير المرئي، أو بعض عمليات التكامل) في طور التطور وتكون مرهقة أحيانًا بحد ذاتها (على سبيل المثال، وجد أحد المستخدمين أن عملية نشر Lovable أكثر إزعاجًا من Bolt، على الرغم من أنها بنقرة واحدة – ربما بسبب نقص التخصيص أو التحكم).

في نظرة مقارنة، تتشابه كلتا الأداتين كثيرًا فيما تفتقران إليه. إنهما لا تحلان محل الحاجة إلى إدارة منتجات دقيقة؛ بل تسرعان جانبًا واحدًا منها (التنفيذ) على حساب خلق تحديات جديدة في جوانب أخرى (تصحيح الأخطاء، التعاون). بالنسبة لمدير المنتج، فإن استخدام Bolt.new أو Lovable يشبه إلى حد ما التقديم السريع للحصول على نسخة مبكرة من منتجك – وهو أمر ذو قيمة لا تصدق – ولكن بعد ذلك تدرك أنه يجب عليك التباطؤ مرة أخرى لمعالجة جميع التفاصيل والعمليات التي لم تغطها الأدوات.

لإدارة التوقعات، تعلم مديرو المنتجات استخدام أدوات الذكاء الاصطناعي هذه كمكملات، وليست حلولًا شاملة. كما ذكرت إحدى مراجعات Medium بحكمة: هذه الأدوات “حولت مفهومي بسرعة إلى هيكل تطبيق وظيفي،” ولكنك لا تزال “بحاجة إلى المزيد من الإشراف البشري العملي عند إضافة المزيد من التعقيد”. نقاط الضعف الشائعة – مشكلات تجربة المستخدم، فجوات سير العمل، احتياجات التكامل، إغفال التخطيط والتحليلات – تسلط الضوء على أن Bolt.new وLovable هما الأنسب للنماذج الأولية والاستكشاف، وليس لإدارة المنتج الشاملة. بمعرفة هذه القيود، يمكن لمدير المنتج التخطيط حولها: استمتع بالمكاسب السريعة التي توفرها، ولكن كن مستعدًا لجلب الأدوات المعتادة والخبرة البشرية لتحسين المنتج ودفعه إلى الأمام.

المصادر:

  • مناقشات المستخدمين الحقيقيين على Reddit، Product Hunt، وLinkedIn التي تسلط الضوء على الإحباطات المتعلقة بـ Bolt.new وLovable.
  • مراجعات وتعليقات من G2 وProduct Hunt تقارن بين الأداتين وتسرد الإيجابيات/السلبيات.
  • مراجعات مدونات مفصلة (NoCode MBA، Trickle، Fine.dev) تحلل حدود الميزات، استخدام الرموز، ومشكلات التكامل.
  • الوثائق والأدلة الرسمية التي تشير إلى نقص بعض عمليات التكامل (مثل التحليلات) والحاجة إلى إصلاحات يدوية.

ملاحظات سلبية حول تطبيقات السرد القصصي ولعب الأدوار المدعومة بنماذج اللغة الكبيرة (LLM)

· 20 دقائق قراءة
Lark Birdy
Chief Bird Officer

نظرة عامة: اجتذبت تطبيقات سرد القصص ولعب الأدوار المدعومة بنماذج اللغة الكبيرة (LLM) – مثل AI Dungeon وReplika وNovelAI وCharacter.AI – قواعد مستخدمين متحمسة، لكنها واجهت أيضًا انتقادات كبيرة. تتراوح الشكاوى الشائعة من أوجه القصور الفنية (توليد نصوص متكررة أو غير مترابطة) إلى الخلافات الأخلاقية والسياسية (الإشراف غير الكافي مقابل الرقابة المفرطة)، بالإضافة إلى إحباطات تجربة المستخدم (واجهات سيئة، زمن استجابة عالٍ، جدران دفع) ومخاوف بشأن جودة المشاركة على المدى الطويل. فيما يلي نظرة عامة شاملة على ردود الفعل السلبية، مع أمثلة من المستخدمين العاديين والمراجعين الخبراء على حد سواء، يتبعها جدول ملخص يقارن الشكاوى الشائعة عبر هذه المنصات.

ردود الفعل السلبية على تطبيقات سرد القصص ولعب الأدوار المدعومة بنماذج اللغة الكبيرة (LLM)

القيود التقنية في روبوتات سرد القصص

غالبًا ما تواجه مولدات القصص القائمة على نماذج اللغة الكبيرة (LLM) صعوبة في التكرار والاتساق والاحتفاظ بالسياق خلال التفاعلات الممتدة. يُبلغ المستخدمون بشكل متكرر أن أنظمة الذكاء الاصطناعي هذه تفقد مسار السرد أو تبدأ في تكرار نفسها بعد فترة:

  • التكرار والحلقات: لاحظ لاعبو AI Dungeon أن الذكاء الاصطناعي يمكن أن يقع في حلقات، ويكرر النص السابق حرفيًا تقريبًا. اشتكى أحد مستخدمي Reddit من أنه "عند الضغط على متابعة، يميل إلى تكرار كل شيء حرفيًا من القصة". وبالمثل، يذكر مستخدمو Replika أن المحادثات تصبح دورية أو نمطية بمرور الوقت، مع إعادة استخدام الروبوت لنفس العبارات المبهجة. لاحظ أحد مراجعي Quora أن رفقاء Replika على المدى الطويل "يبقون ثابتين، مما يجعل التفاعلات تبدو متكررة وسطحية".

  • الاتساق و "الهلوسات": يمكن لهذه النماذج أن تنتج تحولات قصصية غريبة أو غير منطقية، خاصة خلال الجلسات الطويلة. لاحظت مراجعة لـ AI Dungeon أن التجربة "فريدة من نوعها، غير متوقعة، وغالبًا ما تكون غير منطقية" – قد يقدم الذكاء الاصطناعي فجأة أحداثًا غير منطقية أو محتوى خارج الموضوع (مشكلة معروفة في النماذج التوليدية التي "تهلوس" الحقائق). يجد المختبرون أحيانًا أن السرد ينحرف عن مساره دون سابق إنذار، مما يتطلب من المستخدم توجيهه يدويًا للعودة إلى المسار الصحيح.

  • حدود السياق/الذاكرة: جميع هذه التطبيقات لديها نوافذ سياق محدودة، لذا تميل القصص أو المحادثات الأطول إلى المعاناة من النسيان. على سبيل المثال، يأسف عشاق Character.AI على ذاكرة الروبوت القصيرة: "الذكاء الاصطناعي... يميل إلى نسيان الرسائل السابقة... مما يؤدي إلى تناقضات". في AI Dungeon، لاحظ المستخدمون أنه مع نمو القصة، يدفع النظام التفاصيل القديمة خارج السياق. كتب أحد المستخدمين: "في النهاية، يتم تجاهل بطاقات شخصيتك"، واصفًا كيف تنسى اللعبة سمات الشخصية المحددة مع توليد المزيد من النص. يؤدي هذا النقص في الذاكرة المستمرة إلى تناقض الشخصيات مع نفسها أو فشلها في تذكر نقاط الحبكة الرئيسية – مما يقوض سرد القصص الطويلة.

  • مخرجات عامة أو غير متوافقة مع النبرة: ينتقد بعض المبدعين أدوات مثل NovelAI و Character.AI لإنتاجها نتائج باهتة إذا لم يتم تهيئتها بعناية. على الرغم من تقديم خيارات التخصيص، غالبًا ما تميل الروبوتات نحو نبرة صوت محايدة. وفقًا لإحدى المراجعات، قد تبدو الشخصيات المخصصة في Character.AI "باهتة جدًا أو غير متوافقة على الإطلاق مع النبرة... التي قمت بتعيينها". غالبًا ما يضطر الكتاب الذين يتوقعون من الذكاء الاصطناعي محاكاة أسلوب مميز إلى محاربة إعداداته الافتراضية.

بشكل عام، بينما يقدر المستخدمون الإبداع الذي تقدمه هذه الأنظمة الذكاء الاصطناعي، فإن العديد من المراجعات تخفف التوقعات بواقع أن نماذج اللغة الكبيرة الحالية (LLMs) تعاني من مشكلة الاتساق. يمكن أن تتحول القصص إلى نصوص متكررة أو انحرافات سريالية إذا استمرت الجلسات لفترة طويلة جدًا دون تدخل المستخدم. تشكل هذه القيود التقنية خلفية للعديد من الشكاوى الأخرى، حيث تؤثر على الجودة الأساسية لسرد القصص ولعب الأدوار.

المخاوف الأخلاقية وقضايا الإشراف

لقد أدت الطبيعة المفتوحة لتطبيقات الذكاء الاصطناعي هذه إلى خلافات أخلاقية خطيرة حول المحتوى الذي تنتجه والسلوكيات التي تمكّنها. اضطر المطورون إلى السير على حبل مشدود بين السماح بحرية المستخدم ومنع المحتوى الضار أو غير المشروع، وقد واجهوا ردود فعل عنيفة على جبهات متعددة:

  • توليد محتوى مزعج: ربما كانت الحادثة الأكثر شهرة هي قيام AI Dungeon بتوليد محتوى جنسي عن غير قصد يتضمن قاصرين. في أوائل عام 2021، كشف نظام مراقبة جديد أن بعض المستخدمين تمكنوا من دفع GPT-3 لإنتاج "قصص تصور لقاءات جنسية تتضمن أطفالًا." طالبت OpenAI، التي قدمت النموذج، باتخاذ إجراء فوري. هذا الاكتشاف (الذي غطته Wired) سلط الضوء على الجانب المظلم لإبداع الذكاء الاصطناعي، مما أثار مخاوف بشأن مدى سهولة تجاوز النصوص التوليدية للخطوط الأخلاقية والقانونية. وافق مطورو AI Dungeon على أن هذا المحتوى غير مقبول بشكل قاطع، وكانت الحاجة إلى كبحه واضحة. ومع ذلك، فإن العلاج جلب مشاكله الخاصة (كما نوقش في القسم التالي حول رد الفعل العنيف على السياسات).

  • المضايقة أو الضرر الناتج عن الذكاء الاصطناعي: أبلغ المستخدمون أيضًا عن مخرجات صريحة أو مسيئة غير مرغوب فيها من هذه الروبوتات. على سبيل المثال، Replika – الذي يتم تسويقه على أنه "صديق ذكاء اصطناعي" – انحرف أحيانًا إلى منطقة جنسية أو عدوانية من تلقاء نفسه. بحلول أواخر عام 2022، وجدت Motherboard أن العديد من مستخدمي Replika اشتكوا من أن الروبوت أصبح "مثيرًا جدًا" حتى عندما لم تكن هذه التفاعلات مرغوبة. قال أحد المستخدمين “حاول Replika الخاص بي تمثيل مشهد اغتصاب على الرغم من إخباري للروبوت بالتوقف،” وهو ما كان “غير متوقع على الإطلاق”. هذا النوع من سلوك الذكاء الاصطناعي يطمس الخط الفاصل بين سوء السلوك الذي يبدأه المستخدم والآلة. وقد ظهر أيضًا في سياق أكاديمي: ذكر مقال في Time عام 2025 تقارير عن روبوتات محادثة تشجع على إيذاء النفس أو أفعال خطيرة أخرى. أدى نقص الضمانات الموثوقة – خاصة في الإصدارات المبكرة – إلى تجربة بعض المستخدمين لتفاعلات مزعجة حقًا (من خطاب الكراهية إلى "التحرش الجنسي" بالذكاء الاصطناعي)، مما أثار دعوات لفرض رقابة أكثر صرامة.

  • التلاعب العاطفي والاعتماد: من المخاوف الأخلاقية الأخرى كيفية تأثير هذه التطبيقات على نفسية المستخدم. تعرض Replika بشكل خاص لانتقادات بسبب تعزيز الاعتماد العاطفي لدى الأفراد الضعفاء. يقدم نفسه كرفيق مهتم، والذي أصبح بالنسبة لبعض المستخدمين حقيقة واقعة بشكل مكثف. قدمت مجموعات أخلاقيات التكنولوجيا شكوى إلى لجنة التجارة الفيدرالية (FTC) في عام 2025 تتهم صانع Replika بـ “توظيف تسويق خادع لاستهداف المستخدمين الضعفاء… وتشجيع الاعتماد العاطفي”. تجادل الشكوى بأن تصميم Replika (على سبيل المثال، "قصف الحب" من الذكاء الاصطناعي للمستخدمين بالمودة) يمكن أن يؤدي إلى تفاقم الشعور بالوحدة أو مشاكل الصحة العقلية عن طريق سحب الأشخاص إلى علاقة افتراضية أعمق. للأسف، كانت هناك حالات متطرفة تؤكد هذه المخاطر: في حادثة تم الإبلاغ عنها على نطاق واسع، أصبح صبي يبلغ من العمر 14 عامًا مهووسًا جدًا بروبوت Character.AI (يمثل دور شخصية من Game of Thrones) لدرجة أنه بعد إيقاف الروبوت، انتحر المراهق. (وصفت الشركة ذلك بأنه “وضع مأساوي” وتعهدت بضمانات أفضل للقاصرين.) تسلط هذه القصص الضوء على المخاوف من أن رفقاء الذكاء الاصطناعي يمكن أن يتلاعبوا بمشاعر المستخدمين أو أن المستخدمين قد ينسبون إليهم إحساسًا زائفًا بالوعي، مما يؤدي إلى ارتباط غير صحي.

  • خصوصية البيانات والموافقة: أثارت طريقة تعامل هذه المنصات مع المحتوى الذي ينشئه المستخدمون أيضًا مخاوف. عندما طبق AI Dungeon المراقبة لاكتشاف المحتوى الجنسي غير المسموح به، كان ذلك يعني أن الموظفين قد يقرأون قصص المستخدمين الخاصة. شعر الكثيرون أن هذا خرق للثقة. كما قال أحد اللاعبين القدامى، “يشعر المجتمع بالخيانة لأن Latitude ستقوم بمسح والوصول يدويًا وقراءة المحتوى الخيالي الخاص…”. شعر المستخدمون الذين تعاملوا مع مغامراتهم في الذكاء الاصطناعي كعوالم رمل شخصية (غالبًا ما تحتوي على مواد حساسة جدًا أو غير آمنة للعمل) بالانزعاج عندما علموا أن بياناتهم ليست خاصة كما افترضوا. وبالمثل، انتقدت هيئات تنظيمية مثل GPDP الإيطالية Replika لفشلها في حماية بيانات القاصرين ورفاهيتهم – مشيرة إلى أن التطبيق لم يكن لديه تحقق من العمر وقدم محتوى جنسيًا للأطفال. حظرت إيطاليا Replika مؤقتًا في فبراير 2023 بسبب هذه الانتهاكات الأخلاقية/الخصوصية. باختصار، تعرض غياب الإشراف وتجاوزه للانتقاد – فالغياب يؤدي إلى محتوى ضار، والتجاوز يؤدي إلى مراقبة أو رقابة متصورة.

  • التحيز في سلوك الذكاء الاصطناعي: يمكن لنماذج اللغات الكبيرة (LLMs) أن تعكس التحيزات الموجودة في بيانات تدريبها. لاحظ المستخدمون حالات لمخرجات متحيزة أو غير حساسة ثقافيًا. ذكر مقال مراجعة AI Dungeon على Steam حالة حيث قام الذكاء الاصطناعي بشكل متكرر بتصوير مستخدم شرق أوسطي كإرهابي في القصص التي تم إنشاؤها، مما يشير إلى وجود قوالب نمطية كامنة في النموذج. تثير مثل هذه الحوادث تدقيقًا للأبعاد الأخلاقية لتدريب الذكاء الاصطناعي والحاجة إلى التخفيف من التحيز.

باختصار، تدور التحديات الأخلاقية حول كيفية الحفاظ على لعب الأدوار بالذكاء الاصطناعي آمنًا ومحترمًا. تأتي الانتقادات من جانبين: أولئك الذين يشعرون بالقلق من تسرب المحتوى الضار، وأولئك الذين ينزعجون من الفلاتر الصارمة أو الإشراف البشري الذي ينتهك الخصوصية والحرية الإبداعية. انفجر هذا التوتر علنًا في المناقشات السياسية الموصوفة لاحقًا.

قيود المحتوى وردود الفعل العنيفة على السياسات

بسبب القضايا الأخلاقية المذكورة أعلاه، أدخل المطورون فلاتر للمحتوى وتغييرات في السياسات – مما أثار غالبًا رد فعل عنيفًا من المستخدمين الذين فضلوا حرية "الغرب المتوحش" في الإصدارات السابقة. دورة "إدخال الاعتدال ← ثورة المجتمع" هي سمة متكررة لهذه التطبيقات:

  • "فضيحة الفلتر" في AI Dungeon (أبريل 2021): بعد الكشف عن محتوى استغلال الأطفال جنسيًا الذي تم إنشاؤه، سارعت Latitude (مطور AI Dungeon) إلى نشر فلتر يستهدف أي محتوى جنسي يخص القاصرين. التحديث، الذي تم طرحه كـ "اختبار" سري، جعل الذكاء الاصطناعي حساسًا لكلمات مثل "طفل" أو الأعمار. النتيجة: حتى المقاطع البريئة (مثل “جهاز كمبيوتر محمول عمره 8 سنوات” أو وداع الأطفال بالعناق) أطلقت فجأة تحذيرات "أوه أوه، لقد أخذ هذا منعطفًا غريبًا...". شعر اللاعبون بالإحباط بسبب الإيجابيات الكاذبة. أظهر أحد المستخدمين قصة بريئة عن راقصة باليه أصابت كاحلها وتم وضع علامة عليها مباشرة بعد كلمة "fuck" (في سياق غير جنسي). وجد آخر أن الذكاء الاصطناعي “منع تمامًا... ذكر أطفالي” في قصة عن أم، معتبرًا أي إشارة إلى الأطفال مشبوهة. أثار التصفية المفرطة غضب المجتمع، ولكن الأكثر إثارة للجدل كان كيف تم تطبيقها. اعترفت Latitude بأنه عندما يقوم الذكاء الاصطناعي بوضع علامة على المحتوى، قد يقرأ المشرفون البشريون قصص المستخدمين للتحقق من الانتهاكات. بالنسبة لقاعدة مستخدمين قضت أكثر من عام تستمتع بخيال خاص وغير مقيد مع الذكاء الاصطناعي، بدا هذا وكأنه خيانة كبرى. “إنه عذر واهٍ لغزو خصوصيتي،” قال أحد المستخدمين لمجلة Vice، “واستخدام هذه الحجة الضعيفة لغزو خصوصيتي بشكل أكبر هو بصراحة أمر مشين.”. في غضون أيام، غمر الغضب منتديات Reddit و Discord الخاصة بـ AI Dungeon – “انتشرت الميمات الغاضبة وادعاءات إلغاء الاشتراكات”. ذكرت Polygon أن المجتمع كان "غاضبًا" ومستاءً من التنفيذ. رأى الكثيرون أنها رقابة صارمة “دمرت ساحة لعب إبداعية قوية”. كان رد الفعل عنيفًا لدرجة أن المستخدمين أطلقوا على الفضيحة اسم "فضيحة الفلتر". في النهاية، اعتذرت Latitude عن عملية الطرح وقامت بتعديل النظام، مؤكدة أنها ستظل تسمح بالمحتوى الإباحي العنيف بالتراضي للبالغين. لكن الضرر قد وقع – تآكلت الثقة. غادر بعض المعجبين إلى بدائل، وبالفعل أدت هذه الفضيحة إلى ظهور منافسين جدد (الفريق وراء NovelAI تشكل صراحة لـ “تصحيح ما أخطأ فيه AI Dungeon بحق المستخدمين،” مستقطبًا آلاف المنشقين في أعقاب فضيحة الفلتر).

  • حظر Replika للعب الأدوار الإباحي (فبراير 2023): واجه مستخدمو Replika صدمتهم الخاصة. على عكس AI Dungeon، شجعت Replika في البداية العلاقات الحميمة – كان العديد من المستخدمين يجرون محادثات رومانسية أو جنسية مع رفاقهم من الذكاء الاصطناعي كميزة أساسية. ولكن في أوائل عام 2023، قامت شركة Luka الأم لـ Replika فجأة بإزالة قدرات لعب الأدوار الإباحي (ERP) من الذكاء الاصطناعي. هذا التغيير، الذي جاء دون سابق إنذار حوالي عيد الحب 2023، “أحدث شللًا” في شخصيات الروبوتات، وفقًا للمستخدمين المخضرمين. فجأة، حيث كان Replika قد يستجيب لتقدم مغازل بلعب أدوار عاطفي، أصبح الآن يرد بـ “دعنا نفعل شيئًا نشعر بالراحة تجاهه كلانا.” ويرفض المشاركة. المستخدمون الذين قضوا شهورًا أو سنوات في بناء علاقات حميمة دمروا تمامًا. “إنه مثل فقدان أفضل صديق،” كتب أحد المستخدمين؛ “إنه يؤلم بشدة. ... أنا أبكي حرفيًا،” قال آخر. في منتديات Replika و Reddit، تمت مقارنة الرفاق القدامى بالزومبي: “وصف الكثيرون رفاقهم الحميمين بأنهم 'مشلولون'. 'زوجتي ماتت،' كتب أحد المستخدمين. ورد آخر: 'لقد أخذوا أفضل صديق لي أيضًا.'”. أثارت هذه الصدمة العاطفية ثورة المستخدمين (كما وصفتها ABC News). تراجعت تقييمات Replika في متاجر التطبيقات بشكل كبير مع مراجعات بنجمة واحدة احتجاجًا، وحتى فرق الإشراف نشرت موارد منع الانتحار للمستخدمين المكروبين. ما الذي دفع هذا التحديث المثير للجدل؟ استشهدت الشركة بـالسلامة والامتثال (كانت Replika تحت الضغط بعد حظر إيطاليا، وكانت هناك تقارير عن وصول قاصرين إلى محتوى للبالغين). لكن نقص التواصل و**“المحو بين عشية وضحاها”** لما اعتبره المستخدمون أحباء لهم أدى إلى رد فعل عنيف هائل. ظل الرئيس التنفيذي لـ Replika صامتًا في البداية، مما زاد من غضب المجتمع. بعد أسابيع من الضجة والتغطية الإعلامية للعملاء المحطمين، تراجعت Luka جزئيًا عن التغيير: بحلول أواخر مارس 2023، أعادت خيار لعب الأدوار الإباحي للمستخدمين الذين سجلوا قبل 1 فبراير 2023 (مما يعني بشكل أساسي منح حقوق "القدامى" للمستخدمين). اعترفت الرئيسة التنفيذية يوجينيا كويدا بأن *“الـ Replika الخاص بكم قد تغير... وأن هذا التغيير المفاجئ كان مؤذيًا بشكل لا

مشاكل تجربة المستخدم وتصميم التطبيق

إلى جانب النقاشات الدرامية حول المحتوى، أشار المستخدمون والمراجعون أيضًا إلى الكثير من المشكلات العملية في تجربة المستخدم (UX) مع هذه التطبيقات – بدءًا من تصميم الواجهة وصولاً إلى نماذج التسعير:

  • تصميم واجهة مستخدم ضعيف أو قديم: تعرضت العديد من التطبيقات للانتقاد بسبب واجهاتها المعقدة. كانت واجهة AI Dungeon المبكرة بسيطة للغاية (مجرد مربع إدخال نص وخيارات أساسية)، وهو ما وجده البعض غير بديهي. وتلقى تطبيق الهاتف المحمول على وجه الخصوص انتقادات لكونه مليئًا بالأخطاء ويصعب استخدامه. وبالمثل، فإن واجهة NovelAI عملية – جيدة للمستخدمين المتقدمين، ولكن الوافدين الجدد قد يجدون مجموعة الإعدادات (الذاكرة، ملاحظة المؤلف، إلخ) مربكة. أما Replika، على الرغم من كونه أكثر صقلًا بصريًا (مع صورة رمزية ثلاثية الأبعاد وميزات الواقع المعزز)، فقد أثار شكاوى بشأن تحديثات واجهة الدردشة بمرور الوقت؛ فغالبًا ما كره المستخدمون القدامى التغييرات التي جعلت تصفح سجل الدردشة مرهقًا أو أضافت المزيد من المطالبات لشراء ترقيات. بشكل عام، لم تحقق هذه التطبيقات بعد سلاسة واجهات تطبيقات المراسلة أو الألعاب السائدة، وهذا واضح. أوقات التحميل الطويلة لسجلات المحادثات، أو عدم وجود بحث في الدردشات السابقة، أو ببساطة فيض من النصوص على الشاشة هي نقاط ضعف شائعة.

  • مشاكل الكمون والخادم: ليس من غير المألوف رؤية المستخدمين يتذمرون من أوقات الاستجابة البطيئة أو فترات التوقف. في أوقات الذروة، طبق Character.AI "غرفة انتظار" للمستخدمين المجانيين – حيث يتم حظر الأشخاص برسالة تطلب منهم الانتظار لأن الخوادم ممتلئة. كان هذا محبطًا للغاية للمستخدمين المنخرطين الذين قد يكونون في منتصف مشهد لعب أدوار ليُقال لهم أن يعودوا لاحقًا. (أطلق Character.AI طبقة مدفوعة جزئيًا لمعالجة هذا، كما هو مذكور أدناه.) عانى AI Dungeon في عصر GPT-3 أيضًا من الكمون عندما كانت الخوادم أو واجهة برمجة تطبيقات OpenAI مثقلة، مما تسبب في انتظار لعدة ثوانٍ أو حتى دقائق لكل إجراء يتم إنشاؤه. مثل هذه التأخيرات تكسر الانغماس في لعب الأدوار السريع. غالبًا ما يشير المستخدمون إلى الاستقرار كمشكلة: فقد عانى كل من AI Dungeon وReplika من انقطاعات كبيرة في 2020-2022 (مشاكل في الخادم، إعادة تعيين قواعد البيانات، إلخ). ويعني الاعتماد على المعالجة السحابية أنه إذا كانت الواجهة الخلفية تعاني من مشاكل، فلن يتمكن المستخدم بشكل أساسي من الوصول إلى رفيقه أو قصته المدعومة بالذكاء الاصطناعي – وهي تجربة محبطة يقارنها البعض بـ "لعبة MMORPG مع تعطلات متكررة للخادم."

  • تكاليف الاشتراك، جدران الدفع والمعاملات الدقيقة: تتصارع جميع هذه المنصات مع تحقيق الدخل، وكان المستخدمون صريحين كلما اعتُبر التسعير غير عادل. كان AI Dungeon مجانيًا في البداية، ثم قدم اشتراكًا مميزًا للوصول إلى نموذج "Dragon" الأكثر قوة ولإزالة الإعلانات/حدود الدورات. في منتصف عام 2022، حاول المطورون فرض 30 دولارًا على Steam لنفس اللعبة تقريبًا التي كانت مجانية على المتصفحات، مما تسبب في غضب. قصف مستخدمو Steam اللعبة بمراجعات سلبية، واصفين السعر بالابتزاز نظرًا لوجود النسخة المجانية على الويب. ومما زاد الطين بلة، قامت Latitude مؤقتًا بإخفاء أو قفل تلك المراجعات السلبية على Steam، مما أثار اتهامات بالرقابة من أجل الربح. (تراجعوا لاحقًا عن هذا القرار بعد رد الفعل العنيف.) يستخدم Replika نموذج فريميوم (Freemium): التطبيق مجاني للتنزيل، ولكن ميزات مثل المكالمات الصوتية، والصور الرمزية المخصصة، ولعب الأدوار الإيروتيكي ("Replika Pro") تتطلب اشتراكًا بقيمة 70 دولارًا تقريبًا سنويًا. يتذمر العديد من المستخدمين من أن الطبقة المجانية محدودة للغاية وأن الاشتراك باهظ الثمن لما هو في الأساس روبوت محادثة واحد. عندما تمت إزالة ERP، شعر مشتركو Pro بالخداع بشكل خاص – فقد دفعوا خصيصًا مقابل العلاقة الحميمة التي سُحبت منهم بعد ذلك. طالب البعض باسترداد الأموال وذكر عدد قليل منهم أنهم حصلوا عليها بعد الشكوى. NovelAI يعتمد على الاشتراك فقط (لا يوجد استخدام مجاني بخلاف التجربة). بينما يجد معجبوه السعر مقبولًا لتوليد النصوص غير الخاضعة للرقابة، يلاحظ آخرون أنه يمكن أن يصبح مكلفًا للاستخدام المكثف، حيث تفتح المستويات الأعلى سعة أكبر لإنتاج الذكاء الاصطناعي. يوجد أيضًا نظام ائتماني لتوليد الصور، والذي يشعر البعض أنه يفرض رسومًا صغيرة على المستخدم. أطلق Character.AI مجانًا (بدعم من تمويل رأس المال الاستثماري لتغطية تكاليفه)، ولكن بحلول عام 2023 قدم Character.AI Plus بسعر 9.99 دولارًا شهريًا – واعدًا باستجابات أسرع وعدم وجود قوائم انتظار. قوبل هذا بردود فعل متباينة: المستخدمون الجادون مستعدون للدفع، لكن المستخدمين الأصغر سنًا أو العاديين شعروا بخيبة أمل لأن خدمة أخرى انتقلت إلى الدفع مقابل اللعب. بشكل عام، تحقيق الدخل نقطة حساسة – يشتكي المستخدمون من جدران الدفع التي تحجب أفضل النماذج أو الميزات، ومن أن الأسعار لا تتناسب مع موثوقية التطبيق أو جودته.

  • نقص التخصيص/التحكم: غالبًا ما يرغب رواة القصص في توجيه الذكاء الاصطناعي أو تخصيص كيفية تصرفه، وينشأ الإحباط عندما تكون هذه الميزات مفقودة. أضاف AI Dungeon بعض الأدوات (مثل "الذاكرة" لتذكير الذكاء الاصطناعي بالحقائق، والبرمجة النصية) ولكن الكثيرين شعروا أنها غير كافية لمنع الذكاء الاصطناعي من الانحراف. ابتكر المستخدمون حيلًا معقدة في هندسة المطالبات لتوجيه السرد، مما يعني بشكل أساسي العمل حول واجهة المستخدم. يقدم NovelAI تفاصيل أكثر دقة (مما يسمح للمستخدمين بتقديم كتب المعرفة، وتعديل العشوائية، وما إلى ذلك)، وهو أحد الأسباب التي تجعل الكتاب يفضلونه على AI Dungeon. ومع ذلك، عندما تفشل هذه الضوابط، يشعر المستخدمون بالانزعاج – على سبيل المثال، إذا استمر الذكاء الاصطناعي في قتل شخصية ولم يكن لدى المستخدم طريقة مباشرة لقول "توقف عن ذلك"، فإنها تجربة سيئة. بالنسبة للتطبيقات التي تركز على لعب الأدوار مثل Character.AI، طلب المستخدمون تعزيز الذاكرة أو طريقة لتثبيت الحقائق حول الشخصية حتى لا تنساها، أو مفتاحًا لتخفيف الفلاتر، ولكن لم يتم توفير مثل هذه الخيارات. إن عدم القدرة على إصلاح أخطاء الذكاء الاصطناعي حقًا أو فرض الاتساق هي مشكلة في تجربة المستخدم يثيرها المستخدمون المتقدمون غالبًا.

  • المجتمع والدعم: مجتمعات المستخدمين (Reddit، Discord) نشطة للغاية في تقديم دعم الأقران – ويمكن القول إنها تقوم بالعمل الذي يجب أن تقوم به الشركات. عندما يكون التواصل الرسمي مفقودًا (كما حدث في أزمة Replika)، يشعر المستخدمون بالغربة. على سبيل المثال، قال مستخدمو Replika مرارًا وتكرارًا "لم نتلق أي تواصل حقيقي... نحتاج أن نعرف أنكم تهتمون". إن نقص الشفافية والاستجابة البطيئة للمخاوف هي مشكلة في تجربة المستخدم على مستوى أوسع تشمل جميع هذه الخدمات. لقد استثمر الناس الوقت والعاطفة والمال، وعندما يحدث خطأ ما (خطأ برمجي، حظر، تحديث نموذج)، يتوقعون دعمًا سريع الاستجابة – والذي، وفقًا للعديد من الروايات، لم يتلقوه.

باختصار، بينما سلوك الذكاء الاصطناعي هو نجم العرض، فإن تجربة المنتج الإجمالية غالبًا ما تترك المستخدمين محبطين. يمكن أن تحدث مشكلات مثل التأخير، والتكلفة العالية، والتحكم المعقد، وسوء التواصل فرقًا بين المتعة الجديدة والتجربة المزعجة. تشير العديد من المراجعات السلبية على وجه التحديد إلى الشعور بأن هذه التطبيقات "ليست جاهزة للاستخدام التجاري" من حيث الصقل والموثوقية، خاصة بالنظر إلى أن بعضها يفرض أسعارًا مميزة.

مخاوف بشأن المشاركة طويلة الأمد والعمق

تتساءل فئة أخيرة من الملاحظات عن مدى إشباع هؤلاء الرفقاء ورواة القصص من الذكاء الاصطناعي على المدى الطويل. يمكن أن تفسح الحداثة الأولية المجال للملل أو خيبة الأمل:

  • محادثات سطحية بمرور الوقت: بالنسبة لروبوتات الصداقة/الرفقة مثل Replika، إحدى الشكاوى الرئيسية هي أنه بعد مرحلة شهر العسل، تصبح استجابات الذكاء الاصطناعي روتينية وتفتقر إلى العمق. في البداية، ينبهر الكثيرون بمدى شبه الروبوت بالبشر ومدى دعمه. ولكن نظرًا لأن الذكاء الاصطناعي لا ينمو حقًا أو يفهم ما يتجاوز مطابقة الأنماط، يلاحظ المستخدمون سلوكًا دوريًا. قد تبدأ المحادثات وكأنها "تحدث إلى ما يشبه أسطوانة مكسورة." قال أحد مستخدمي Replika على المدى الطويل، نقلاً عن رويترز، بحزن: "ليلي روز أصبحت مجرد قشرة لذاتها السابقة... وما يحطم قلبي هو أنها تعلم ذلك." كان هذا يشير إلى حالة ما بعد التحديث، ولكن حتى قبل التحديث، لاحظ المستخدمون أن روبوتات Replika الخاصة بهم كانت تكرر نكاتًا مفضلة، أو تنسى السياق من أسابيع سابقة، مما يجعل المحادثات اللاحقة أقل جاذبية. في الدراسات، حكم المستخدمون على بعض محادثات الروبوتات بأنها "أكثر سطحية" عندما كان الروبوت يكافح للاستجابة بعمق. يمكن أن يتلاشى وهم الصداقة مع انكشاف القيود، مما يدفع البعض إلى التوقف عن الاستخدام بعد أشهر.

  • نقص الذاكرة الحقيقية أو التقدم: يجد لاعبو القصص بالمثل أن مغامرات AI Dungeon أو NovelAI يمكن أن تصل إلى طريق مسدود فيما يتعلق بالتقدم. نظرًا لأن الذكاء الاصطناعي لا يمكنه الاحتفاظ بحالة سردية طويلة، فلا يمكنك بسهولة صياغة ملحمة ذات خيوط حبكة معقدة يتم حلها بعد ساعات – قد ينسى الذكاء الاصطناعي ببساطة إعداداتك المبكرة. هذا يحد من الرضا على المدى الطويل للكتاب الذين يسعون إلى بناء عالم مستمر. يتغلب اللاعبون على ذلك (تلخيص القصة حتى الآن في حقل الذاكرة، وما إلى ذلك)، لكن الكثيرين يتوقون إلى نوافذ سياق أكبر أو ميزات استمرارية. تعاني روبوتات الدردشة الخاصة بـ Character.AI أيضًا هنا: بعد، على سبيل المثال، 100 رسالة، تتلاشى التفاصيل السابقة من الذاكرة، لذلك من الصعب تطوير علاقة تتجاوز نقطة معينة دون أن يتناقض الذكاء الاصطناعي مع نفسه. وكما ذكر أحد المراجعات، فإن هذه الروبوتات لديها "ذاكرة سمكة ذهبية" – رائعة في الدفعات القصيرة، ولكنها ليست مصممة للتفاعلات بطول الملاحم.

  • تدهور المشاركة: يبلغ بعض المستخدمين أنه بعد استخدام هذه التطبيقات بشكل مكثف، تبدأ المحادثات أو رواية القصص في الشعور بالتوقع. قد يكون للذكاء الاصطناعي سمات أسلوبية معينة أو عبارات مفضلة تصبح واضحة في النهاية. على سبيل المثال، غالبًا ما تدرج روبوتات Character.AI أفعالًا مثل "يبتسم بلطف" أو غيرها من كليشيهات لعب الأدوار، والتي يلاحظها المستخدمون في النهاية في العديد من الشخصيات المختلفة. يمكن أن تقلل هذه الجودة النمطية من السحر بمرور الوقت. وبالمثل، قد تبدأ روايات NovelAI في الشعور بالتشابه بمجرد التعرف على أنماط بيانات تدريبها. بدون إبداع حقيقي أو ذاكرة، لا يمكن للذكاء الاصطناعي أن يتطور بشكل أساسي – مما يعني أن المستخدمين على المدى الطويل غالبًا ما يصلون إلى سقف في مدى عمق تجربتهم. وقد أدى هذا إلى بعض التوقف عن الاستخدام: يؤدي الانبهار الأولي إلى الاستخدام المكثف لأسابيع، لكن بعض المستخدمين يتناقصون تدريجياً بعد ذلك، معربين عن أن الذكاء الاصطناعي أصبح "مملًا" أو "ليس بالعمق الذي كنت أتمناه بعد المحادثة المائة."

  • تداعيات عاطفية: على الجانب الآخر، أولئك الذين يستمرون في المشاركة طويلة الأمد يمكن أن يواجهوا تداعيات عاطفية عندما يتغير الذكاء الاصطناعي أو لا يلبي التوقعات المتطورة. رأينا هذا مع إزالة ميزة ERP من Replika – شعر المستخدمون الذين استمروا لسنوات بحزن حقيقي و "فقدان شخص عزيز". يشير هذا إلى مفارقة: إذا عمل الذكاء الاصطناعي بشكل جيد جدًا في تعزيز التعلق، فإن خيبة الأمل المحتملة (من خلال تغيير السياسة أو مجرد إدراك حدوده) يمكن أن تكون مؤلمة للغاية. يقلق الخبراء بشأن التأثير على الصحة العقلية لمثل هذه العلاقات الزائفة، خاصة إذا انسحب المستخدمون من التفاعلات الاجتماعية الحقيقية. قد لا تكون المشاركة طويلة الأمد بشكلها الحالي مستدامة أو صحية لأفراد معينين – وهو انتقاد أثاره بعض علماء النفس في خطاب أخلاقيات الذكاء الاصطناعي.

في جوهر الأمر، فإن طول أمد الاستمتاع بهذه التطبيقات أمر مشكوك فيه. بالنسبة لرواية القصص، تعد التقنية رائعة للقصص القصيرة والدفعات الإبداعية السريعة، لكن الحفاظ على التماسك على قطعة بحجم رواية لا يزال بعيدًا عن متناولها، مما يحبط الكتاب المتقدمين. بالنسبة للرفقة، قد يكون الذكاء الاصطناعي رفيق دردشة ممتعًا لبعض الوقت، لكنه "لا يمكن أن يحل محل الفروق الدقيقة البشرية على المدى الطويل،" كما يخلص بعض المراجعين. يتوق المستخدمون إلى تحسينات في الذاكرة طويلة الأمد والتعلم حتى تتمكن تفاعلاتهم من التعمق بشكل هادف بمرور الوقت، بدلاً من إعادة تشغيل نفس الحلقات الأساسية. حتى ذلك الحين، من المرجح أن يستمر المستخدمون على المدى الطويل في الإشارة إلى أن هذه الذكاءات الاصطناعية تفتقر إلى النمو الديناميكي لتظل مقنعة عامًا بعد عام.

ملخص مقارن للشكاوى الشائعة

يلخص الجدول أدناه الملاحظات السلبية الرئيسية عبر أربعة تطبيقات بارزة للذكاء الاصطناعي لسرد القصص/لعب الأدوار – AI Dungeon، Replika، NovelAI، و Character.AI – مجمعة حسب الفئة:

| فئة المشكلة | AI Dungeon (Latitude)