پرش به محتوای اصلی

3 پست برچسب‌گذاری شده با "تجربه کاربری"

مشاهده همه برچسب‌ها

ابزارهای تصویر هوش مصنوعی: ترافیک بالا، شکاف‌های پنهان، و آنچه کاربران واقعاً می‌خواهند

· 10 دقیقه خواندن
Lark Birdy
Chief Bird Officer

هوش مصنوعی به طور چشمگیری چشم‌انداز پردازش تصویر را دگرگون کرده است. از بهبودهای سریع در گوشی‌های هوشمند ما گرفته تا تحلیل‌های پیچیده در آزمایشگاه‌های پزشکی، ابزارهای مبتنی بر هوش مصنوعی در همه جا حضور دارند. استفاده از آن‌ها به شدت افزایش یافته و مخاطبان گسترده‌ای را، از کاربران عادی که عکس‌ها را ویرایش می‌کنند تا متخصصان در زمینه‌های تخصصی، پوشش می‌دهد. اما در زیر سطح ترافیک بالای کاربران و قابلیت‌های چشمگیر، نگاهی دقیق‌تر نشان می‌دهد که بسیاری از ابزارهای محبوب به طور کامل انتظارات کاربران را برآورده نمی‌کنند. شکاف‌های قابل توجه و اغلب ناامیدکننده‌ای در ویژگی‌ها، قابلیت استفاده یا میزان تطابق آن‌ها با نیازهای واقعی کاربران وجود دارد.

ابزارهای تصویر هوش مصنوعی

این پست به دنیای پردازش تصویر با هوش مصنوعی می‌پردازد و ابزارهای محبوب، دلایل محبوبیت آن‌ها و مهم‌تر از آن، نیازهای برآورده نشده و فرصت‌های موجود را بررسی می‌کند.

جعبه‌ابزار همه‌منظوره: محبوبیت و نقاط ضعف

کارهای روزمره ویرایش تصویر مانند حذف پس‌زمینه، واضح کردن عکس‌های تار یا افزایش وضوح تصویر، توسط هوش مصنوعی متحول شده‌اند. ابزارهایی که این نیازها را برطرف می‌کنند، میلیون‌ها نفر را جذب کرده‌اند، اما بازخورد کاربران اغلب به نارضایتی‌های رایج اشاره دارد.

حذف پس‌زمینه: فراتر از برش ساده

ابزارهایی مانند Remove.bg حذف پس‌زمینه با یک کلیک را به یک واقعیت رایج تبدیل کرده‌اند و ماهانه حدود ۱۵۰ میلیون تصویر را برای تقریباً ۳۲ میلیون کاربر فعال خود پردازش می‌کنند. سادگی و دقت آن، به ویژه با لبه‌های پیچیده مانند مو، عامل اصلی جذابیت آن است. با این حال، کاربران اکنون بیش از یک برش ساده انتظار دارند. تقاضا برای ویژگی‌های ویرایش یکپارچه، خروجی‌های با وضوح بالاتر بدون هزینه‌های سنگین، و حتی حذف پس‌زمینه ویدئو در حال افزایش است – زمینه‌هایی که Remove.bg در حال حاضر محدودیت‌هایی دارد.

این امر راه را برای ابزارهایی مانند PhotoRoom هموار کرده است که حذف پس‌زمینه را با ویژگی‌های ویرایش عکس محصول (پس‌زمینه‌های جدید، سایه‌ها، حذف اشیاء) ترکیب می‌کند. رشد چشمگیر آن، با حدود ۱۵۰ میلیون بار دانلود برنامه و پردازش تقریباً ۵ میلیارد تصویر در سال، تقاضا برای راه‌حل‌های جامع‌تر را برجسته می‌کند. با این حال، تمرکز اصلی آن بر روی عکس‌های محصول تجارت الکترونیک به این معنی است که کاربران با نیازهای خلاقانه پیچیده‌تر ممکن است آن را محدودکننده بیابند. فرصتی آشکار برای ابزاری وجود دارد که راحتی برش سریع هوش مصنوعی را با قابلیت‌های ویرایش دستی دقیق‌تر، همه در یک رابط کاربری واحد، ترکیب کند.

افزایش وضوح و بهبود تصویر: جستجو برای کیفیت و سرعت

ابزارهای افزایش وضوح تصویر مبتنی بر هوش مصنوعی مانند Let’s Enhance مبتنی بر ابر (حدود ۱.۴ میلیون بازدید ماهانه از وب‌سایت) و نرم‌افزار دسکتاپ Topaz Gigapixel AI به طور گسترده برای جان بخشیدن به عکس‌های قدیمی یا بهبود کیفیت تصویر برای رسانه‌های چاپی و دیجیتال استفاده می‌شوند. در حالی که Let’s Enhance راحتی وب را ارائه می‌دهد، کاربران گاهی اوقات پردازش کند برای تصاویر بزرگ و محدودیت‌ها با اعتبار رایگان را گزارش می‌کنند. Topaz Gigapixel AI توسط عکاسان حرفه‌ای برای بازیابی جزئیات آن تحسین می‌شود اما به سخت‌افزار قدرتمند نیاز دارد، می‌تواند کند باشد، و قیمت آن (حدود ۱۹۹ دلار یا اشتراک) مانعی برای کاربران عادی است.

یک نکته مشترک در بازخورد کاربران، تمایل به راه‌حل‌های افزایش وضوح سریع‌تر و سبک‌تر است که منابع را برای ساعت‌ها اشغال نمی‌کنند. علاوه بر این، کاربران به دنبال ابزارهای افزایش وضوح هستند که محتوای خاص را هوشمندانه مدیریت کنند – چهره‌ها، متن، یا حتی هنر به سبک انیمه (یک جایگاه خاص که توسط ابزارهایی مانند Waifu2x و BigJPG، که حدود ۱.۵ میلیون بازدید در ماه جذب می‌کنند، پوشش داده می‌شود). این نشان‌دهنده شکافی برای ابزارهایی است که شاید بتوانند به طور خودکار انواع تصویر را تشخیص داده و مدل‌های بهبود سفارشی را اعمال کنند.

بهبود و ویرایش عکس با هوش مصنوعی: جستجوی تعادل و تجربه کاربری بهتر

اپلیکیشن‌های موبایل مانند Remini با بهبودهای هوش مصنوعی "یک ضربه‌ای" خود، به ویژه برای بازیابی چهره‌ها در عکس‌های قدیمی یا تار، رشد چشمگیری (بیش از ۱۲۰ میلیون دانلود بین سال‌های ۲۰۱۹-۲۰۲۴) داشته‌اند. موفقیت آن، اشتیاق عمومی برای بازیابی مبتنی بر هوش مصنوعی را برجسته می‌کند. با این حال، کاربران به محدودیت‌های آن اشاره می‌کنند: Remini در مورد چهره‌ها عالی عمل می‌کند اما اغلب پس‌زمینه‌ها یا سایر عناصر تصویر را نادیده می‌گیرد. بهبودها گاهی اوقات می‌توانند غیرطبیعی به نظر برسند یا مصنوعات (آرتیفکت) ایجاد کنند، به خصوص با ورودی‌های با کیفیت بسیار پایین. این نشان‌دهنده نیاز به ابزارهای متعادل‌تری است که بتوانند جزئیات کلی تصویر را بازیابی کنند، نه فقط چهره‌ها را.

ویرایشگرهای آنلاین مانند Pixlr، که ۱۴-۱۵ میلیون بازدید ماهانه را به عنوان یک جایگزین رایگان فتوشاپ جذب می‌کنند، ویژگی‌های هوش مصنوعی مانند حذف خودکار پس‌زمینه را گنجانده‌اند. اما تغییرات اخیر، مانند نیاز به ورود به سیستم یا اشتراک برای عملکردهای اساسی مانند ذخیره کار، انتقاد قابل توجهی از کاربران را به همراه داشته است، به ویژه از سوی مربیانی که به دسترسی رایگان آن متکی بودند. این نشان می‌دهد که چگونه حتی ابزارهای محبوب نیز می‌توانند تناسب با بازار را اشتباه ارزیابی کنند اگر تجربه کاربری یا استراتژی‌های کسب درآمد با نیازهای کاربر در تضاد باشد، که به طور بالقوه کاربران را به سمت جستجوی جایگزین‌ها سوق می‌دهد.

هوش مصنوعی تخصصی: دگرگون‌کننده صنایع، اما با شکاف‌های باقی‌مانده

در حوزه‌های تخصصی، پردازش تصویر با هوش مصنوعی در حال متحول کردن جریان‌های کاری است. با این حال، این ابزارهای تخصصی در تجربه کاربری و کامل بودن ویژگی‌ها نیز با چالش‌هایی روبرو هستند.

هوش مصنوعی تصویربرداری پزشکی: کمک‌رسانی با ملاحظات

در رادیولوژی، پلتفرم‌هایی مانند Aidoc در بیش از ۱۲۰۰ مرکز پزشکی مستقر شده‌اند و ماهانه میلیون‌ها اسکن بیمار را تجزیه و تحلیل می‌کنند تا به شناسایی یافته‌های اورژانسی کمک کنند. در حالی که این نشان‌دهنده اعتماد فزاینده به هوش مصنوعی برای ارزیابی‌های اولیه است، رادیولوژیست‌ها محدودیت‌هایی را گزارش می‌کنند. یک مشکل رایج این است که هوش مصنوعی فعلی اغلب ناهنجاری‌های "مشکوک" را بدون ارائه داده‌های کمی (مانند اندازه‌گیری‌های یک ضایعه) یا ادغام یکپارچه در سیستم‌های گزارش‌دهی، علامت‌گذاری می‌کند. مثبت‌های کاذب نیز می‌توانند منجر به "خستگی از هشدار" یا سردرگمی شوند، اگر افراد غیرمتخصص، نکات برجسته هوش مصنوعی را ببینند که بعداً توسط رادیولوژیست‌ها رد می‌شوند. تقاضا برای هوش مصنوعی است که واقعاً حجم کار را کاهش دهد، داده‌های قابل اندازه‌گیری ارائه دهد و به آرامی ادغام شود، به جای افزودن پیچیدگی‌های جدید.

هوش مصنوعی تصویربرداری ماهواره‌ای: قدرتمند اما نه همیشه در دسترس

هوش مصنوعی در حال دگرگون کردن تحلیل‌های ژئوفضایی است، با شرکت‌هایی مانند Planet Labs که تصاویر جهانی روزانه و تحلیل‌های مبتنی بر هوش مصنوعی را به بیش از ۳۴,۰۰۰ کاربر ارائه می‌کنند. در حالی که این پلتفرم‌ها فوق‌العاده قدرتمند هستند، هزینه و پیچیدگی آن‌ها می‌تواند برای سازمان‌های کوچک‌تر، سازمان‌های غیردولتی (NGOs) یا محققان فردی بازدارنده باشد. پلتفرم‌های رایگان مانند Google Earth Engine یا USGS EarthExplorer داده ارائه می‌دهند اما اغلب فاقد ابزارهای تحلیل هوش مصنوعی کاربرپسند هستند که نیاز به دانش برنامه‌نویسی یا تخصص GIS دارد. یک شکاف واضح برای هوش مصنوعی ژئوفضایی در دسترس‌تر و مقرون‌به‌صرفه‌تر وجود دارد – یک برنامه وب را تصور کنید که در آن کاربران بتوانند به راحتی کارهایی مانند تشخیص تغییرات زمین یا تحلیل سلامت محصول را بدون دانش فنی عمیق انجام دهند. به همین ترتیب، ابررزولوشن تصاویر ماهواره‌ای مبتنی بر هوش مصنوعی، که توسط خدماتی مانند OnGeo ارائه می‌شود، مفید است اما اغلب به صورت گزارش‌های ثابت ارائه می‌شود، به جای یک بهبود تعاملی و بی‌درنگ در نرم‌افزار GIS.

سایر کاربردهای تخصصی: موضوعات مشترک پدیدار می‌شوند

  • هوش مصنوعی بیمه (به عنوان مثال، Tractable): هوش مصنوعی با ارزیابی خسارت خودرو از روی عکس‌ها، فرآیند ادعاهای بیمه خودرو را تسریع می‌بخشد و سالانه میلیاردها دلار تعمیرات را پردازش می‌کند. با این حال، هنوز به خسارات قابل مشاهده محدود است و نیاز به نظارت انسانی دارد که نشان‌دهنده نیاز به دقت و شفافیت بیشتر در تخمین‌های هوش مصنوعی است.
  • هوش مصنوعی خلاق (به عنوان مثال، Lensa، FaceApp): برنامه‌هایی که آواتارهای هوش مصنوعی یا تغییرات چهره تولید می‌کنند، محبوبیت ویروسی پیدا کردند (لنز در سال ۲۰۲۲ حدود ۵.۸ میلیون بار دانلود شد). با این حال، کاربران کنترل محدود، خروجی‌های گاهی مغرضانه و نگرانی‌های حریم خصوصی را مشاهده کردند که نشان‌دهنده تمایل به ابزارهای خلاقانه با عاملیت کاربر بیشتر و مدیریت شفاف داده‌ها است.

شناسایی فرصت‌ها: کجا ابزارهای تصویر هوش مصنوعی می‌توانند بهبود یابند

در سراسر برنامه‌های عمومی و تخصصی، چندین حوزه کلیدی به طور مداوم ظاهر می‌شوند که نیازهای کاربران در حال حاضر به درستی برآورده نشده‌اند:

  1. گردش‌کارهای یکپارچه: کاربران از کار با ابزارهای متعدد و تک‌منظوره خسته شده‌اند. روند به سمت راه‌حل‌های یکپارچه است که یک گردش‌کار بی‌نقص را ارائه می‌دهند و اصطکاک ناشی از صادرات و واردات بین برنامه‌های مختلف را کاهش می‌دهند. به ابزارهای ارتقاء دهنده (upscaler) فکر کنید که همزمان بهبود چهره و حذف ناهنجاری‌ها را انجام می‌دهند، یا ابزارهایی با اکوسیستم‌های پلاگین قوی.
  2. کیفیت، کنترل و سفارشی‌سازی بهبود یافته: هوش مصنوعی "جعبه سیاه" در حال از دست دادن جذابیت خود است. کاربران کنترل بیشتری بر فرآیند هوش مصنوعی می‌خواهند – اسلایدرهای ساده برای شدت افکت، گزینه‌های پیش‌نمایش تغییرات، یا توانایی هدایت هوش مصنوعی. شفافیت در مورد اطمینان هوش مصنوعی به نتایج خود نیز برای ایجاد اعتماد بسیار مهم است.
  3. عملکرد و مقیاس‌پذیری بهتر: سرعت و توانایی پردازش دسته‌ای از نقاط ضعف اصلی هستند. چه یک عکاس در حال پردازش کل یک مجموعه عکس باشد و چه یک شرکت در حال تجزیه و تحلیل هزاران تصویر روزانه، پردازش کارآمد کلیدی است. این می‌تواند شامل الگوریتم‌های بهینه‌تر، پردازش ابری مقرون‌به‌صرفه، یا حتی هوش مصنوعی روی دستگاه برای نتایج تقریباً فوری باشد.
  4. دسترسی‌پذیری و مقرون‌به‌صرفه‌بودن بهبود یافته: خستگی از اشتراک واقعی است. هزینه‌های بالا و دیوارهای پرداخت محدودکننده می‌توانند علاقه‌مندان، دانشجویان و کاربران در بازارهای نوظهور را از خود دور کنند. مدل‌های فریمیوم با سطوح رایگان واقعاً مفید، گزینه‌های خرید یک‌باره، و ابزارهایی که برای افراد غیرانگلیسی‌زبان یا نیازهای منطقه‌ای خاص بومی‌سازی شده‌اند، می‌توانند به پایگاه‌های کاربری نادیده گرفته شده فعلی دسترسی پیدا کنند.
  5. بهینه‌سازی عمیق‌تر و خاص دامنه: در زمینه‌های تخصصی، مدل‌های عمومی هوش مصنوعی اغلب ناکافی هستند. توانایی کاربران برای تنظیم دقیق هوش مصنوعی بر اساس حوزه تخصصی خود – چه یک بیمارستان که هوش مصنوعی را با داده‌های بیماران محلی خود آموزش می‌دهد و چه یک متخصص کشاورزی که مدلی را برای یک محصول خاص تنظیم می‌کند – منجر به تناسب بهتر با بازار و رضایت کاربر خواهد شد.

مسیر پیش رو

ابزارهای پردازش تصویر مبتنی بر هوش مصنوعی بدون شک به پذیرش گسترده دست یافته و ارزش بی‌نظیر خود را اثبات کرده‌اند. با این حال، این سفر هنوز به پایان نرسیده است. جنبه‌های «کم‌خدمت‌رسانی‌شده» که توسط بازخورد کاربران برجسته شده‌اند – درخواست‌ها برای ویژگی‌های جامع‌تر، قابلیت استفاده بصری، قیمت‌گذاری منصفانه و کنترل بیشتر کاربر – تنها شکایت نیستند؛ بلکه نشانه‌های روشنی برای نوآوری هستند.

شکاف‌های فعلی بازار، زمینه مساعدی را برای ورود بازیگران جدید و تکامل بازیگران موجود فراهم می‌کنند. نسل بعدی ابزارهای تصویر هوش مصنوعی احتمالاً آنهایی خواهند بود که جامع‌تر، شفاف‌تر، قابل تنظیم‌تر و واقعاً با جریان‌های کاری متنوع کاربران خود هماهنگ‌تر هستند. شرکت‌هایی که به دقت به این خواسته‌های در حال تحول گوش می‌دهند و هم در فناوری و هم در تجربه کاربری نوآوری می‌کنند، آماده‌اند تا پیشرو باشند.

مشکلات مدیران محصول در استفاده از Bolt.new و Lovable

· 32 دقیقه خواندن
Lark Birdy
Chief Bird Officer

مدیران محصول (PMs) به Bolt.new و Lovable برای نمونه‌سازی سریع برنامه‌ها با هوش مصنوعی جذب می‌شوند. این ابزارها وعده «تبدیل ایده به برنامه در چند ثانیه» را می‌دهند و به یک مدیر محصول اجازه می‌دهند رابط‌های کاربری کاربردی یا MVPها را بدون نیاز به تیم‌های توسعه کامل ایجاد کند. با این حال، بازخورد کاربران در دنیای واقعی چندین مشکل اساسی را آشکار می‌کند. نارضایتی‌های رایج شامل تجربه کاربری نامناسب که منجر به ناکارآمدی می‌شود، دشواری در همکاری با تیم‌ها، ادغام‌های محدود با ابزارهای موجود، عدم پشتیبانی برای برنامه‌ریزی بلندمدت محصول، و ویژگی‌های ناکافی تحلیل یا ردیابی است. در ادامه، ما مسائل کلیدی (همراه با نظرات مستقیم کاربران) را بررسی کرده و نحوه عملکرد هر ابزار را مقایسه می‌کنیم.

مشکلات اساسی برای مدیران محصول در استفاده از Bolt.new و Lovable

مشکلات UX/UI که مانع کارایی می‌شوند

هر دو پلتفرم Bolt.new و Lovable پیشرفته اما بی‌نقص نیستند، و مدیران محصول (PMs) اغلب با مشکلات UX/UI مواجه می‌شوند که سرعت آن‌ها را کاهش می‌دهد:

  • رفتار غیرقابل پیش‌بینی هوش مصنوعی و خطاها: کاربران گزارش می‌دهند که این سازنده‌های هوش مصنوعی مکرراً خطاها یا تغییرات غیرمنتظره‌ای تولید می‌کنند و آن‌ها را مجبور به آزمون و خطای خسته‌کننده می‌کنند. یک کاربر غیرفنی توصیف کرد که «۳ ساعت را صرف خطاهای مکرر» فقط برای اضافه کردن یک دکمه کرده و تمام توکن‌های خود را در این فرآیند سوزانده است. در واقع، Bolt.new به دلیل تولید «صفحه‌های خالی، فایل‌های گمشده، و استقرارهای ناقص» زمانی که پروژه‌ها فراتر از نمونه‌های اولیه ساده رشد می‌کردند، بدنام شد. این غیرقابل پیش‌بینی بودن به این معنی است که مدیران محصول باید خروجی هوش مصنوعی را به دقت نظارت کنند. یک بازبین G2 اشاره کرد که پرامپت‌های Lovable «می‌توانند به طور غیرمنتظره‌ای تغییر کنند که می‌تواند گیج‌کننده باشد»، و اگر منطق برنامه پیچیده شود، «بازگرداندن آن به مسیر اصلی می‌تواند کار زیادی باشد» – در یک مورد آن‌ها مجبور شدند کل پروژه را از نو شروع کنند. چنین بازنشانی‌ها و کارهای مجددی زمانی که یک مدیر محصول در تلاش برای حرکت سریع است، ناامیدکننده هستند.

  • هزینه‌های بالای تکرار (توکن و زمان): هر دو پلتفرم از مدل‌های با محدودیت استفاده (Bolt.new از طریق توکن، Lovable از طریق اعتبار پیام) استفاده می‌کنند که می‌تواند مانع آزمایش کارآمد شود. چندین کاربر شکایت دارند که سیستم توکن Bolt بیش از حد مصرفی است – یک کاربر نوشت: «شما به توکن‌های بسیار بیشتری از آنچه فکر می‌کنید نیاز دارید»، «به محض اینکه یک پایگاه داده را متصل می‌کنید… با مشکلاتی روبرو می‌شوید که [هوش مصنوعی] در یک یا دو پرامپت قادر به حل آن‌ها نیست». نتیجه، چرخه‌های تکراری پرامپت‌دهی و رفع اشکال است که سهمیه‌ها را مصرف می‌کند. یکی دیگر از کاربران ناامید Bolt.new کنایه زد: «۳۰٪ از توکن‌های شما برای ایجاد یک برنامه استفاده می‌شود. ۷۰٪ دیگر… برای یافتن راه‌حل برای تمام خطاها و اشتباهاتی که Bolt ایجاد کرده است.» این موضوع با یک پاسخ تأیید شد: «کاملاً درست است! [من] قبلاً سه بار در ماه [اشتراکم را] تمدید کرده‌ام!». مدل استفاده Lovable نیز مصون نیست – سطح پایه آن ممکن است حتی برای یک برنامه ساده کافی نباشد (یک بازبین «در سطح پایه مشترک شد و این واقعاً به من برای ساخت یک برنامه ساده کافی نیست»، با اشاره به جهش شدید هزینه برای سطح بعدی). برای مدیران محصول، این به معنای رسیدن به محدودیت‌ها یا متحمل شدن هزینه اضافی فقط برای تکرار روی یک نمونه اولیه است، که یک قاتل آشکار کارایی است.

  • سفارشی‌سازی محدود و کنترل رابط کاربری: در حالی که هر دو ابزار رابط کاربری را به سرعت تولید می‌کنند، کاربران دریافته‌اند که آن‌ها فاقد قابلیت‌های تنظیم دقیق هستند. یک کاربر Lovable سرعت را ستایش کرد اما ابراز تأسف کرد که «گزینه‌های سفارشی‌سازی تا حدودی محدود هستند». قالب‌های آماده زیبا به نظر می‌رسند، اما تنظیم آن‌ها فراتر از تغییرات اساسی می‌تواند دست و پا گیر باشد. به طور مشابه، هوش مصنوعی Lovable گاهی اوقات کدی را تغییر می‌دهد که نباید – یک کاربر اشاره کرد: «وقتی چیزی جدید اضافه می‌کنم، کدی را تغییر می‌دهد که نباید تغییر کند» – به این معنی که یک تغییر کوچک توسط مدیر محصول می‌تواند ناخواسته بخش دیگری از برنامه را خراب کند. از سوی دیگر، Bolt.new در ابتدا ویرایش بصری کمی ارائه می‌داد. همه چیز از طریق پرامپت‌ها یا ویرایش کد در پشت صحنه انجام می‌شد که برای غیرتوسعه‌دهندگان ترسناک است. (Lovable شروع به معرفی حالت «ویرایش بصری» برای تغییرات طرح‌بندی و سبک کرده است، اما در دسترسی اولیه است.) فقدان یک ویرایشگر WYSIWYG قوی یا رابط کشیدن و رها کردن (در هر دو ابزار) یک نقطه ضعف برای مدیران محصول است که نمی‌خواهند وارد کد شوند. حتی مستندات خود Lovable این شکاف را تأیید می‌کند و هدف آن ارائه قابلیت کشیدن و رها کردن بیشتر در آینده برای «دسترسی بیشتر به کاربران غیرفنی» است – که نشان می‌دهد در حال حاضر، سهولت استفاده هنوز جای بهبود دارد.

  • مشکلات جریان کار رابط کاربری: کاربران به مشکلات کوچک‌تر UX اشاره کرده‌اند که روانی استفاده از این پلتفرم‌ها را مختل می‌کند. به عنوان مثال، در Bolt.new، رابط کاربری به کاربر اجازه می‌داد بدون پیکربندی هدف استقرار، روی «استقرار» کلیک کند که منجر به سردرگمی می‌شد (کاربر پیشنهاد کرد که «اگر سعی در استقرار دارید اما هنوز پیکربندی نکرده‌اید، باید از شما بخواهد Netlify را پیکربندی کنید»). Bolt همچنین فاقد هرگونه نمایش تفاوت (diff) یا تاریخچه در ویرایشگر خود بود؛ «آنچه را که تغییر می‌دهد توصیف می‌کند… اما کد واقعی تفاوت را نشان نمی‌دهد»، برخلاف ابزارهای توسعه سنتی. این امر درک آنچه هوش مصنوعی در هر تکرار تغییر داده است را برای مدیر محصول دشوارتر می‌کند و مانع یادگیری و اعتماد می‌شود. علاوه بر این، تاریخچه چت جلسه Bolt بسیار کوتاه بود، بنابراین نمی‌توانستید به عقب برگردید تا دستورالعمل‌های قبلی را مرور کنید – مشکلی برای مدیری که ممکن است از کار فاصله بگیرد و بعداً با نیاز به زمینه بازگردد. در مجموع، این نقص‌های رابط کاربری به معنای بار ذهنی اضافی برای پیگیری تغییرات و وضعیت هستند.

به طور خلاصه، Bolt.new تمایل دارد قدرت خام را بر ظرافت ترجیح دهد، که می‌تواند مدیران محصول را با مشکلات آن دست و پنجه نرم کند، در حالی که تجربه کاربری Lovable دوستانه‌تر است اما هنوز در عمق محدود است. همانطور که یک مقایسه بیان کرد: «Bolt.new عالی است اگر سرعت خام و کنترل کامل می‌خواهید… برنامه‌های فول‌استک را سریع تولید می‌کند، اما برای تولید باید آن‌ها را مرتب کنید. Lovable ساختاریافته‌تر و طراحی‌پسندتر است… با کدی تمیزتر از ابتدا.» برای یک مدیر محصول، آن زمان «مرتب‌سازی» یک ملاحظه جدی است – و بسیاری دریافته‌اند که آنچه این ابزارهای هوش مصنوعی در زمان توسعه اولیه صرفه‌جویی می‌کنند، بخشی از آن را در زمان اشکال‌زدایی و تنظیم مجدد پس می‌دهند.

اصطکاک در همکاری و گردش کار تیمی

بخش حیاتی از نقش یک مدیر محصول، کار با تیم‌ها – طراحان، توسعه‌دهندگان، و سایر مدیران محصول – است. اما هم Bolt.new و هم Lovable محدودیت‌هایی در زمینه همکاری چندنفره و یکپارچه‌سازی گردش کار دارند.

  • عدم وجود ویژگی‌های همکاری بومی: هیچ‌یک از این ابزارها در ابتدا با هدف همکاری همزمان چند کاربره (مانند گوگل داکس یا فیگما) ساخته نشده‌اند. پروژه‌ها معمولاً به یک حساب کاربری واحد متصل هستند و در هر زمان توسط یک نفر ویرایش می‌شوند. این جداسازی می‌تواند در محیط تیمی اصطکاک ایجاد کند. برای مثال، اگر یک مدیر محصول نمونه اولیه‌ای را در Bolt.new بسازد، راه آسانی برای یک طراح یا مهندس وجود ندارد که همزمان وارد شود و همان پروژه را تغییر دهد. انتقال کار دست و پا گیر است: معمولاً باید کد را اکسپورت یا به یک مخزن پوش کرد تا دیگران روی آن کار کنند (و همانطور که در ادامه اشاره شد، حتی این کار در مورد Bolt نیز بی‌اهمیت نبود). در عمل، برخی کاربران به ساخت با این ابزارها و سپس انتقال کد به جای دیگر روی می‌آورند. یکی از شرکت‌کنندگان در بحث Product Hunt اعتراف کرد: پس از استفاده از Bolt یا Lovable برای گرفتن ایده، او «آن را در گیت‌هابم قرار می‌دهم و در نهایت از Cursor برای تکمیل ساخت استفاده می‌کنم» – اساساً به ابزاری دیگر برای توسعه تیمی روی می‌آورد. این نشان می‌دهد که برای همکاری پایدار، کاربران نیاز به ترک محیط Bolt/Lovable را احساس می‌کنند.

  • کنترل نسخه و اشتراک‌گذاری کد: در ابتدا، Bolt.new هیچ یکپارچه‌سازی گیت داخلی نداشت، که یک توسعه‌دهنده آن را یک اشتباه «دیوانه‌وار» خواند: «من کاملاً می‌خواهم کدم... در گیت باشد.» بدون کنترل نسخه بومی، یکپارچه‌سازی خروجی Bolt در کدبیس یک تیم دست و پا گیر بود. (Bolt یک فایل ZIP قابل دانلود از کد ارائه می‌کرد، و افزونه‌های مرورگر شخص ثالث برای پوش کردن آن به گیت‌هاب ظاهر شدند.) این یک گام اضافی است که می‌تواند جریان کار یک مدیر محصول را که سعی در همکاری با توسعه‌دهندگان دارد، مختل کند. Lovable، در مقابل، ویژگی «عدم وابستگی، همگام‌سازی گیت‌هاب» را تبلیغ می‌کند که به کاربران امکان می‌دهد یک مخزن را متصل کرده و به‌روزرسانی‌های کد را پوش کنند. این یک نقطه قوت برای تیم‌ها بوده است – یک کاربر اشاره کرد که آنها «از Lovable برای یکپارچه‌سازی گیت (محیط تیمی مشارکتی) استفاده کردند» در حالی که Bolt فقط برای کار سریع انفرادی استفاده می‌شد. در این جنبه، Lovable انتقال کار تیمی را آسان می‌کند: یک مدیر محصول می‌تواند یک برنامه تولید کند و بلافاصله کد را در گیت‌هاب برای بررسی یا ادامه کار توسعه‌دهندگان داشته باشد. Bolt.new از آن زمان سعی در بهبود داشته و یک اتصال‌دهنده گیت‌هاب از طریق StackBlitz اضافه کرده است، اما بازخورد جامعه نشان می‌دهد که هنوز به آن روانی نیست. حتی با وجود گیت، کد تولید شده توسط هوش مصنوعی می‌تواند بدون مستندات برای تیم‌ها دشوار باشد که آن را تجزیه و تحلیل کنند، زیرا کد توسط ماشین تولید شده و گاهی اوقات خودتوضیح‌دهنده نیست.

  • یکپارچه‌سازی گردش کار (تیم‌های طراحی و توسعه): مدیران محصول اغلب نیاز دارند طراحان را زودتر درگیر کنند یا اطمینان حاصل کنند که آنچه می‌سازند با مشخصات طراحی همسو است. هر دو ابزار در این زمینه تلاش‌هایی برای یکپارچه‌سازی انجام دادند (که در ادامه بیشتر بحث می‌شود)، اما هنوز اصطکاک وجود دارد. یکی از مزایای Bolt.new برای توسعه‌دهندگان این است که کنترل مستقیم‌تری بر پشته فناوری می‌دهد – «به شما اجازه می‌دهد از هر فریم‌ورکی استفاده کنید،» همانطور که بنیانگذار Lovable مشاهده کرد – که ممکن است یک عضو تیم توسعه را که می‌خواهد فناوری را انتخاب کند، راضی کند. با این حال، همین انعطاف‌پذیری به این معنی است که Bolt بیشتر شبیه زمین بازی یک توسعه‌دهنده است تا یک ابزار راهنمای مدیر محصول. در مقابل، رویکرد ساختاریافته Lovable (با پشته پیشنهادی، بک‌اند یکپارچه و غیره) ممکن است آزادی یک توسعه‌دهنده را محدود کند، اما مسیری راهنمایی شده را فراهم می‌کند که غیرمهندسان از آن قدردانی می‌کنند. بسته به تیم، این تفاوت می‌تواند یک نقطه درد باشد: یا Bolt بیش از حد بدون جهت‌گیری به نظر می‌رسد (مدیر محصول ممکن است به طور تصادفی تنظیماتی را انتخاب کند که تیم دوست ندارد)، یا Lovable بیش از حد محدود به نظر می‌رسد (از فریم‌ورک‌هایی که تیم توسعه ترجیح می‌دهد استفاده نمی‌کند). در هر دو حالت، همسو کردن نمونه اولیه با استانداردهای تیم نیاز به هماهنگی اضافی دارد.

  • ابزارهای همکاری خارجی: نه Bolt.new و نه Lovable مستقیماً با مجموعه‌های همکاری رایج یکپارچه نمی‌شوند (هیچ یکپارچه‌سازی مستقیمی با Slack برای اعلان‌ها، هیچ یکپارچه‌سازی با Jira برای پیگیری مسائل و غیره وجود ندارد). این بدان معناست که هرگونه به‌روزرسانی یا پیشرفت در ابزار باید به صورت دستی به تیم اطلاع داده شود. برای مثال، اگر یک مدیر محصول نمونه اولیه‌ای ایجاد کند و بازخورد بخواهد، باید خودشان لینکی به برنامه مستقر شده یا مخزن گیت‌هاب را از طریق ایمیل/اسلک به اشتراک بگذارند – پلتفرم‌ها به تیم اطلاع نمی‌دهند یا به طور خودکار به تیکت‌های پروژه متصل نمی‌شوند. این عدم یکپارچه‌سازی با گردش کارهای تیمی می‌تواند منجر به شکاف‌های ارتباطی شود. یک مدیر محصول نمی‌تواند وظایف را در Bolt/Lovable اختصاص دهد، یا برای یک هم‌تیمی روی یک عنصر UI خاص نظر بگذارد، آنطور که ممکن است در یک ابزار طراحی مانند فیگما انجام دهد. همه چیز باید به صورت موردی و خارج از ابزار انجام شود. اساساً، Bolt.new و Lovable از نظر طراحی محیط‌های تک‌نفره هستند، که زمانی که یک مدیر محصول می‌خواهد از آنها در یک زمینه چندنفره استفاده کند، چالشی ایجاد می‌کند.

به طور خلاصه، Lovable در سناریوهای تیمی کمی از Bolt.new پیشی می‌گیرد (به لطف همگام‌سازی گیت‌هاب و رویکرد ساختاریافته‌ای که غیربرنامه‌نویسان آن را آسان‌تر می‌یابند). یک مدیر محصول که به صورت انفرادی کار می‌کند ممکن است تنظیمات فردگرایانه Bolt را تحمل کند، اما اگر نیاز به درگیر کردن دیگران داشته باشد، این ابزارها می‌توانند به گلوگاه تبدیل شوند مگر اینکه تیم یک فرآیند دستی در اطراف آنها ایجاد کند. شکاف همکاری دلیل اصلی است که می‌بینیم کاربران کار خود را اکسپورت کرده و در جای دیگری ادامه می‌دهند – هوش مصنوعی می‌تواند یک پروژه را شروع کند، اما ابزارهای سنتی هنوز برای پیشبرد آن به صورت مشارکتی مورد نیاز هستند.

چالش‌های یکپارچه‌سازی با ابزارهای دیگر

توسعه محصول مدرن شامل مجموعه‌ای از ابزارهاست – پلتفرم‌های طراحی، پایگاه‌های داده، خدمات شخص ثالث و غیره. مدیران محصول برای نرم‌افزاری ارزش قائلند که به‌خوبی با ابزارهای موجودشان کار کند، اما Bolt.new و Lovable دارای اکوسیستم یکپارچه‌سازی محدودی هستند که اغلب نیازمند راه‌حل‌های جایگزین است:

  • یکپارچه‌سازی ابزارهای طراحی: مدیران محصول اغلب کار خود را با ماکاپ‌ها یا وایرفریم‌های طراحی آغاز می‌کنند. هم Bolt و هم Lovable این موضوع را تشخیص داده و راه‌هایی برای وارد کردن طرح‌ها معرفی کردند، با این حال بازخورد کاربران در مورد این ویژگی‌ها متفاوت است. Bolt.new قابلیت وارد کردن فایل‌های Figma (که بر پایه افزونه Anima ساخته شده) را برای تولید کد از طرح‌ها اضافه کرد، اما آنطور که انتظار می‌رفت موفق نبود. یکی از آزمایش‌کنندگان اولیه اشاره کرد که ویدئوهای تبلیغاتی وارد کردن بی‌نقص و ساده را نشان می‌دادند، «اما در مورد بخش‌هایی که [کار نمی‌کنند] چه؟ اگر ابزاری قرار است متحول‌کننده باشد، باید پیچیدگی‌ها را مدیریت کند – نه فقط کارهای آسان را.» در عمل، Bolt با فایل‌های Figma که بسیار مرتب نبودند، مشکل داشت. یک طراح UX که یکپارچه‌سازی Figma در Bolt را امتحان کرد، آن را برای هر چیزی فراتر از چیدمان‌های پایه، ناامیدکننده یافت و اشاره کرد که این یکپارچه‌سازی می‌تواند «در طرح‌های پیچیده دچار مشکل شود». Lovable اخیراً خط لوله تبدیل Figma به کد خود را از طریق یکپارچه‌سازی Builder.io راه‌اندازی کرده است. این امر به طور بالقوه نتایج تمیزتری به همراه دارد (زیرا Builder.io فایل Figma را تفسیر کرده و به Lovable منتقل می‌کند)، اما از آنجایی که جدید است، هنوز به طور گسترده اثبات نشده است. حداقل یک مقایسه، Lovable را به دلیل «گزینه‌های UI بهتر (Figma/Builder.io)» و رویکردی دوستانه‌تر با طراحی ستایش کرد. با این حال، «کمی کندتر در تولید به‌روزرسانی‌ها» به عنوان یک بده‌بستان برای آن دقت در طراحی گزارش شد. برای مدیران محصول، نتیجه نهایی این است که وارد کردن طرح‌ها همیشه به سادگی یک کلیک نیست – ممکن است زمان زیادی را صرف تنظیم فایل Figma برای مطابقت با قابلیت‌های هوش مصنوعی یا پاکسازی UI تولید شده پس از وارد کردن کنند. این امر اصطکاک را در گردش کار بین طراحان و ابزار هوش مصنوعی افزایش می‌دهد.

  • یکپارچه‌سازی بک‌اند و پایگاه داده: هر دو ابزار بر تولید فرانت‌اند تمرکز دارند، اما برنامه‌های واقعی به داده و احراز هویت نیاز دارند. راه‌حل انتخابی برای Bolt.new و Lovable، یکپارچه‌سازی با Supabase (یک پایگاه داده PostgreSQL میزبانی شده + سرویس احراز هویت) است. کاربران از وجود این یکپارچه‌سازی‌ها قدردانی می‌کنند، اما تفاوت‌های ظریفی در اجرا وجود دارد. در ابتدا، یکپارچه‌سازی Supabase در Bolt.new ابتدایی بود؛ در مقایسه، یکپارچه‌سازی Lovable «محکم‌تر [و] سرراست‌تر» تلقی می‌شد. بنیان‌گذار Lovable تاکید کرد که سیستم Lovable برای کمتر «گیر کردن» تنظیم شده است، از جمله هنگام یکپارچه‌سازی پایگاه‌های داده. با این حال، استفاده از Supabase همچنان نیازمند این است که مدیر محصول درک نسبی از شمای پایگاه داده داشته باشد. در بررسی Medium از Lovable، نویسنده مجبور شد جداول را به صورت دستی در Supabase ایجاد کرده و داده‌ها را آپلود کند، سپس آن را از طریق کلیدهای API متصل کند تا یک برنامه کاملاً کارآمد (مثلاً برای رویدادها و مکان‌های یک برنامه بلیط‌فروشی) داشته باشد. این فرآیند قابل انجام بود، اما ساده نبود – هیچ تشخیص خودکار مدل داده شما وجود ندارد، مدیر محصول باید آن را تعریف کند. اگر در اتصال مشکلی پیش بیاید، اشکال‌زدایی دوباره بر عهده کاربر است. Lovable تلاش می‌کند کمک کند (دستیار هوش مصنوعی هنگام بروز خطا در اتصال Supabase راهنمایی ارائه داد)، اما بی‌نقص نیست. Bolt.new تنها اخیراً پس از شکایات کاربران «پیشرفت‌های زیادی را در یکپارچه‌سازی Supabase خود ارائه کرده است». قبل از آن، همانطور که یکی از کاربران گفت، «Bolt… کارهای فرانت‌اند را انجام می‌دهد اما کمک زیادی در بک‌اند نمی‌کند» – فراتر از تنظیمات پیش‌فرض ساده، برای منطق سرور به حال خود رها می‌شدید. به طور خلاصه، در حالی که هر دو ابزار یکپارچه‌سازی بک‌اند را ممکن ساخته‌اند، این یک یکپارچه‌سازی سطحی است. مدیران محصول ممکن است خود را محدود به آنچه Supabase ارائه می‌دهد بیابند؛ هر چیز سفارشی‌تر (مثلاً یک پایگاه داده متفاوت یا منطق سرور پیچیده) پشتیبانی نمی‌شود (Bolt و Lovable کد بک‌اند دلخواه را در زبان‌هایی مانند پایتون/جاوا تولید نمی‌کنند). این می‌تواند زمانی که الزامات یک محصول فراتر از عملیات پایه CRUD است، ناامیدکننده باشد.

  • سرویس‌های شخص ثالث و APIها: بخش کلیدی محصولات مدرن، اتصال به سرویس‌ها (درگاه‌های پرداخت، نقشه‌ها، تحلیل‌ها و غیره) است. Lovable و Bolt می‌توانند APIها را یکپارچه کنند، اما فقط از طریق رابط پرامپت و نه از طریق افزونه‌های از پیش ساخته شده. به عنوان مثال، یک کاربر در Reddit توضیح داد که چگونه می‌توان به هوش مصنوعی چیزی مانند «من به یک API آب و هوا نیاز دارم» گفت، و ابزار یک API رایگان محبوب را انتخاب کرده و کلید API را درخواست می‌کند. این چشمگیر است، اما همچنین مبهم است – مدیر محصول باید اعتماد کند که هوش مصنوعی یک API مناسب را انتخاب کرده و فراخوانی‌ها را به درستی پیاده‌سازی می‌کند. هیچ فروشگاه برنامه‌ای برای یکپارچه‌سازی‌ها یا تنظیمات گرافیکی وجود ندارد؛ همه چیز به نحوه پرامپت شما بستگی دارد. برای سرویس‌های رایج مانند پرداخت یا ایمیل، Lovable به نظر می‌رسد با ساخت آن‌ها درونی، برتری دارد: به گفته بنیان‌گذار آن، Lovable دارای «یکپارچه‌سازی برای پرداخت‌ها + ایمیل‌ها» در میان ویژگی‌های خود است. اگر این درست باشد، به این معنی است که یک مدیر محصول می‌تواند به راحتی از Lovable بخواهد یک فرم پرداخت Stripe اضافه کند یا ایمیل‌ها را از طریق یک سرویس یکپارچه ارسال کند، در حالی که با Bolt ممکن است مجبور باشد آن را به صورت دستی از طریق فراخوانی‌های API تنظیم کند. با این حال، مستندات در مورد این موارد کم است – به احتمال زیاد هنوز از طریق عامل هوش مصنوعی مدیریت می‌شود تا یک تنظیمات اشاره و کلیک. عدم وجود ماژول‌های یکپارچه‌سازی واضح و کاربرپسند می‌تواند به عنوان یک نقطه ضعف دیده شود: برای یکپارچه‌سازی چیزی جدید نیازمند آزمون و خطا است، و اگر هوش مصنوعی یک سرویس خاص را نشناسد، مدیر محصول ممکن است به بن‌بست بخورد. اساساً، یکپارچه‌سازی‌ها ممکن هستند اما «plug-and-play» نیستند.

  • یکپارچه‌سازی زنجیره ابزارهای سازمانی: وقتی صحبت از یکپارچه‌سازی با زنجیره ابزارهای مدیریت محصول (Jira برای تیکت‌ها، Slack برای اعلان‌ها و غیره) می‌شود، Bolt.new و Lovable در حال حاضر هیچ چیز آماده‌ای ارائه نمی‌دهند. این پلتفرم‌ها به صورت جداگانه عمل می‌کنند. در نتیجه، یک مدیر محصول که از آن‌ها استفاده می‌کند، باید سیستم‌های دیگر را به صورت دستی به‌روزرسانی کند. به عنوان مثال، اگر مدیر محصول یک داستان کاربر در Jira داشت («به عنوان یک کاربر، من ویژگی X را می‌خواهم») و آن ویژگی را در Lovable نمونه‌سازی کند، هیچ راهی برای علامت‌گذاری آن داستان به عنوان تکمیل شده از داخل Lovable وجود ندارد – مدیر محصول باید وارد Jira شده و آن را انجام دهد. به همین ترتیب، هیچ ربات Slack قرار نیست «نمونه اولیه آماده است» را هنگامی که Bolt ساخت را به پایان می‌رساند، اعلام کند؛ مدیر محصول باید لینک پیش‌نمایش را گرفته و به اشتراک بگذارد. این شکاف با توجه به تمرکز اولیه این ابزارها تعجب‌آور نیست، اما کارایی گردش کار را در یک محیط تیمی مختل می‌کند. اساساً، این یک تغییر زمینه است: شما در Bolt/Lovable کار می‌کنید تا بسازید، سپس به ابزارهای مدیریت محصول خود می‌روید تا پیشرفت را ثبت کنید، سپس شاید به ابزارهای ارتباطی خود برای نشان دادن به تیم. نرم‌افزار یکپارچه می‌تواند این فرآیند را ساده‌تر کند، اما در حال حاضر این بار بر دوش مدیر محصول است.

به طور خلاصه، Bolt.new و Lovable در برخی زمینه‌های فنی (به ویژه با Supabase برای داده) به خوبی یکپارچه می‌شوند، اما در یکپارچه‌سازی با اکوسیستم گسترده‌تر ابزارهایی که مدیران محصول روزانه استفاده می‌کنند، کوتاهی می‌کنند. Lovable گام‌های کمی بیشتری در ارائه مسیرهای داخلی (مانند استقرار با یک کلیک، GitHub مستقیم، برخی سرویس‌های داخلی) برداشته است، در حالی که Bolt اغلب نیازمند سرویس‌های خارجی (Netlify، تنظیم دستی API) است. یک بررسی NoCode MBA به صراحت این تفاوت را نشان می‌دهد: «Lovable انتشار داخلی را فراهم می‌کند، در حالی که Bolt به سرویس‌های خارجی مانند Netlify متکی است». تلاش برای پر کردن این شکاف‌ها – چه با کپی دستی کد، چه با دستکاری افزونه‌های شخص ثالث، یا وارد کردن مجدد به‌روزرسانی‌ها به سیستم‌های دیگر – یک آزار واقعی برای مدیران محصولی است که به دنبال تجربه‌ای بی‌نقص هستند.

محدودیت‌ها در برنامه‌ریزی محصول و مدیریت نقشه راه

فراتر از ساخت یک نمونه اولیه سریع، مدیران محصول مسئول برنامه‌ریزی قابلیت‌ها، مدیریت نقشه‌های راه و اطمینان از تکامل محصول هستند. در این زمینه، دامنه Bolt.new و Lovable بسیار محدود است – آن‌ها به ایجاد یک اپلیکیشن کمک می‌کنند، اما هیچ ابزاری برای برنامه‌ریزی گسترده‌تر محصول یا مدیریت پروژه مستمر ارائه نمی‌دهند.

  • عدم وجود بک‌لاگ یا مدیریت نیازمندی‌ها: این سازندگان اپلیکیشن مبتنی بر هوش مصنوعی هیچ مفهومی از بک‌لاگ، داستان‌های کاربر یا وظایف را شامل نمی‌شوند. یک مدیر محصول نمی‌تواند از Bolt.new یا Lovable برای فهرست کردن قابلیت‌ها و سپس رسیدگی به آن‌ها به صورت ساختاریافته و یکی یکی استفاده کند. در عوض، توسعه توسط دستورات (پرامپت‌ها) ("X را بساز"، "حالا Y را اضافه کن") هدایت می‌شود و ابزارها اپلیکیشن را بر اساس آن تولید یا اصلاح می‌کنند. این روش برای نمونه‌سازی موقت کار می‌کند اما به یک نقشه راه مدیریت‌شده تبدیل نمی‌شود. اگر یک مدیر محصول بخواهد قابلیت‌های خاصی را اولویت‌بندی کند یا یک برنامه انتشار را ترسیم کند، همچنان به ابزارهای خارجی (مانند Jira، Trello یا یک صفحه گسترده ساده) برای انجام این کار نیاز خواهد داشت. هوش مصنوعی به شما یادآوری نمی‌کند که چه چیزی در انتظار است یا قابلیت‌ها چگونه به یکدیگر مرتبط هستند – این ابزار هیچ مفهومی از جدول زمانی پروژه یا وابستگی‌ها ندارد، فقط دستورات فوری که شما می‌دهید.

  • دشواری در مدیریت پروژه‌های بزرگتر: با افزایش پیچیدگی پروژه‌ها، کاربران متوجه می‌شوند که این پلتفرم‌ها به بن‌بست می‌رسند. یکی از بازبینان G2 اشاره کرد که "همانطور که شروع به گسترش پورتفولیوی خود کردم، متوجه شدم ابزارهای زیادی برای مدیریت پروژه‌های پیچیده یا بزرگتر" در Lovable وجود ندارد. این احساس در مورد Bolt.new نیز صدق می‌کند. آن‌ها برای اپلیکیشن‌های کوچک و نوپا بهینه شده‌اند؛ اگر سعی کنید یک محصول اساسی با ماژول‌های متعدد، نقش‌های کاربری، منطق پیچیده و غیره بسازید، فرآیند دست و پا گیر می‌شود. هیچ پشتیبانی برای ماژول‌ها یا پکیج‌ها فراتر از آنچه فریم‌ورک‌های کدنویسی زیربنایی ارائه می‌دهند، وجود ندارد. و از آنجایی که هیچ یک از این ابزارها امکان اتصال به یک پایگاه کد موجود را نمی‌دهند، نمی‌توانید بهبودهای تولید شده توسط هوش مصنوعی را به تدریج در یک پروژه بلندمدت ادغام کنید. این بدان معناست که آن‌ها برای توسعه تکراری بر روی یک محصول بالغ مناسب نیستند. در عمل، اگر یک نمونه اولیه ساخته شده با Lovable نیاز به تبدیل شدن به یک محصول واقعی داشته باشد، تیم‌ها اغلب پس از رسیدن به اندازه مشخصی، آن را خارج از ابزار بازنویسی یا بازسازی می‌کنند. از دیدگاه مدیر محصول، این محدودیت به این معنی است که شما خروجی‌های Bolt/Lovable را به عنوان نمونه‌های اولیه یک‌بار مصرف یا نقاط شروع در نظر می‌گیرید، نه به عنوان محصول واقعی که قرار است مقیاس‌پذیر شود – خود ابزارها از این مسیر پشتیبانی نمی‌کنند.

  • ماهیت یک‌بار مصرف تولید هوش مصنوعی: Bolt.new و Lovable بیشتر شبیه ویزاردها عمل می‌کنند تا محیط‌های توسعه مداوم. آن‌ها در فاز اولیه ایده‌پردازی (شما ایده‌ای دارید، آن را پرامپت می‌کنید، یک اپلیکیشن پایه دریافت می‌کنید) می‌درخشند. اما فاقد قابلیت‌هایی برای برنامه‌ریزی و نظارت مستمر بر پیشرفت یک محصول هستند. به عنوان مثال، هیچ مفهومی از جدول زمانی نقشه راه وجود ندارد که بتوانید در آن "اسپرینت ۱: پیاده‌سازی ورود (توسط هوش مصنوعی انجام شد)، اسپرینت ۲: پیاده‌سازی مدیریت پروفایل (در دست انجام)" و غیره را قرار دهید. همچنین نمی‌توانید به راحتی به نسخه قبلی بازگردید یا یک قابلیت جدید را شاخه‌سازی کنید – که این‌ها از رویه‌های استاندارد در توسعه محصول هستند. این اغلب مدیران محصول را به سمت طرز فکر یک‌بار مصرف سوق می‌دهد: از هوش مصنوعی برای اعتبارسنجی سریع یک ایده استفاده کنید، اما سپس توسعه "مناسب" را در یک محیط سنتی برای هر چیزی فراتر از نمونه اولیه از سر بگیرید. این تحویل می‌تواند یک نقطه درد باشد زیرا اساساً تلاش را تکرار می‌کند یا نیاز به ترجمه نمونه اولیه به یک فرمت قابل نگهداری‌تر دارد.

  • عدم وجود قابلیت‌های تعامل با ذینفعان: در برنامه‌ریزی محصول، مدیران محصول اغلب بازخورد جمع‌آوری کرده و نقشه راه را تنظیم می‌کنند. این ابزارهای هوش مصنوعی نیز در این زمینه کمکی نمی‌کنند. به عنوان مثال، نمی‌توانید سناریوهای مختلف یا گزینه‌های نقشه راه محصول را در Bolt/Lovable برای بحث با ذینفعان ایجاد کنید – هیچ نمای جدول زمانی، هیچ رأی‌گیری قابلیت‌ها، هیچ چیز از این قبیل وجود ندارد. هرگونه بحث یا تصمیم‌گیری در مورد چه چیزی را در ادامه بسازیم باید خارج از پلتفرم انجام شود. یک مدیر محصول ممکن بود امیدوار باشد، به عنوان مثال، همانطور که هوش مصنوعی اپلیکیشن را می‌سازد، بتواند فهرستی از قابلیت‌ها یا مشخصاتی را که پیاده‌سازی شده‌اند نیز ارائه دهد، که سپس بتواند به عنوان یک سند زنده برای تیم عمل کند. اما در عوض، مستندسازی محدود است (تاریخچه چت یا کامنت‌های کد تنها سوابق هستند، و همانطور که اشاره شد، تاریخچه چت Bolt از نظر طول محدود است). این عدم پشتیبانی داخلی از مستندسازی یا برنامه‌ریزی به این معنی است که مدیر محصول باید به صورت دستی آنچه را که هوش مصنوعی انجام داده و آنچه را که برای هر نوع نقشه راه باقی مانده است، مستند کند، که این کار اضافی است.

در اصل، Bolt.new و Lovable جایگزینی برای ابزارهای مدیریت محصول نیستند – آن‌ها ابزارهای توسعه کمکی هستند. آن‌ها "اپلیکیشن‌های جدید را از ابتدا تولید می‌کنند اما در بسط یا مدیریت تکامل محصول به شما ملحق نمی‌شوند". مدیران محصول دریافته‌اند که پس از انتشار نمونه اولیه، باید به چرخه‌های برنامه‌ریزی و توسعه سنتی روی آورند، زیرا ابزارهای هوش مصنوعی آن فرآیند را هدایت نخواهند کرد. همانطور که یک وبلاگ‌نویس فناوری پس از آزمایش نتیجه گرفت، "Lovable به وضوح نمونه‌سازی را تسریع می‌کند اما نیاز به تخصص انسانی را از بین نمی‌برد... این یک راه حل جادویی نیست که تمام دخالت‌های انسانی در توسعه محصول را از بین ببرد". این موضوع تأکید می‌کند که برنامه‌ریزی، اولویت‌بندی و بهبود – فعالیت‌های اصلی مدیر محصول – همچنان به انسان‌ها و ابزارهای استانداردشان متکی هستند و شکافی را در آنچه این پلتفرم‌های هوش مصنوعی خود می‌توانند پشتیبانی کنند، باقی می‌گذارند.

(Lovable.dev در مقابل Bolt.new در مقابل Fine: مقایسه سازندگان اپلیکیشن هوش مصنوعی و عامل‌های کدنویسی برای استارتاپ‌ها) اکثر سازندگان اپلیکیشن هوش مصنوعی (مانند Bolt.new و Lovable) در تولید سریع یک نمونه اولیه فرانت‌اند عالی هستند، اما فاقد قابلیت‌هایی برای کد بک‌اند پیچیده، تست کامل یا نگهداری بلندمدت می‌باشند. مدیران محصول دریافته‌اند که این ابزارها، در حالی که برای اثبات مفهوم عالی هستند، نمی‌توانند چرخه عمر کامل محصول را فراتر از ساخت اولیه مدیریت کنند.

مشکلات مربوط به تجزیه و تحلیل، بینش‌ها و پیگیری پیشرفت

هنگامی که یک محصول (یا حتی یک نمونه اولیه) ساخته می‌شود، مدیر محصول می‌خواهد نحوه عملکرد آن را پیگیری کند – هم از نظر پیشرفت توسعه و هم از نظر تعامل کاربر. در اینجا، Bolt.new و Lovable عملاً هیچ ابزار تجزیه و تحلیل یا ردیابی داخلی ارائه نمی‌دهند، که می‌تواند یک نقطه ضعف قابل توجه باشد.

  • عدم وجود ابزار تجزیه و تحلیل کاربر داخلی: اگر یک مدیر محصول برنامه‌ای را از طریق این پلتفرم‌ها مستقر کند، هیچ داشبوردی برای مشاهده معیارهای استفاده (مانند تعداد کاربران، کلیک‌ها، تبدیل‌ها) وجود ندارد. هرگونه تجزیه و تحلیل محصول باید به صورت دستی به برنامه تولید شده اضافه شود. به عنوان مثال، برای به دست آوردن حتی داده‌های ترافیک اولیه، یک مدیر محصول باید گوگل آنالیتیکس یا یک اسکریپت مشابه را در کد برنامه وارد کند. منابع راهنمای خود Lovable به صراحت به این موضوع اشاره می‌کنند: «اگر از Lovable استفاده می‌کنید... باید کد ردیابی گوگل آنالیتیکس را به صورت دستی اضافه کنید... هیچ یکپارچه‌سازی مستقیمی وجود ندارد.». این به معنای تنظیمات اضافی و مراحل فنی است که یک مدیر محصول باید هماهنگ کند (احتمالاً در صورت عدم آشنایی با کدنویسی، به کمک یک توسعه‌دهنده نیاز خواهد داشت). عدم وجود ابزارهای تجزیه و تحلیل یکپارچه مشکل‌ساز است، زیرا یکی از دلایل اصلی نمونه‌سازی سریع، جمع‌آوری بازخورد کاربر است – اما این ابزارها آن را برای شما جمع‌آوری نمی‌کنند. اگر یک مدیر محصول یک MVP تولید شده با Lovable را برای یک گروه آزمایشی راه‌اندازی کند، باید خودش آن را ابزارگذاری کند یا از خدمات تجزیه و تحلیل خارجی برای کسب اطلاعات در مورد رفتار کاربر استفاده کند. این کار شدنی است، اما سربار اضافی ایجاد می‌کند و نیاز به آشنایی با ویرایش کد یا استفاده از رابط کاربری محدود پلتفرم برای وارد کردن اسکریپت‌ها دارد.

  • بینش محدود در مورد فرآیند هوش مصنوعی: در بخش توسعه، مدیران محصول ممکن است به تجزیه و تحلیل یا بازخورد در مورد نحوه عملکرد عامل هوش مصنوعی نیز علاقه‌مند باشند – به عنوان مثال، معیارهایی در مورد تعداد تلاش‌هایی که برای درست انجام دادن کاری لازم بوده، یا اینکه کدام بخش‌های کد را بیشتر تغییر داده است. چنین بینش‌هایی می‌تواند به مدیر محصول کمک کند تا مناطق پرخطر برنامه را شناسایی کرده یا به اجزای ساخته شده توسط هوش مصنوعی اعتماد کند. با این حال، نه Bolt.new و نه Lovable اطلاعات زیادی از این دست را نمایش نمی‌دهند. جدای از معیارهای خام مانند توکن‌های استفاده شده یا پیام‌های ارسال شده، هیچ گزارش غنی از تصمیم‌گیری هوش مصنوعی وجود ندارد. در واقع، همانطور که اشاره شد، Bolt.new حتی تفاوت‌های تغییرات کد را نیز نشان نمی‌داد. این عدم شفافیت آنقدر ناامیدکننده بود که برخی کاربران هوش مصنوعی Bolt را متهم کردند که فقط برای ظاهر شدن مشغول، توکن‌ها را مصرف می‌کند: «بهینه شده برای ظاهر فعالیت به جای حل مسئله واقعی»، همانطور که یکی از منتقدان در مورد الگوی مصرف توکن مشاهده کرد. این نشان می‌دهد که مدیران محصول، فراتر از مشاهده نتیجه، بینش بسیار کمی در مورد اینکه آیا «کار» هوش مصنوعی مؤثر است یا اتلاف وقت، به دست می‌آورند. اساساً یک جعبه سیاه است. هنگامی که مشکلی پیش می‌آید، مدیر محصول باید کورکورانه به توضیح هوش مصنوعی اعتماد کند یا به کد خام بپردازد – هیچ ابزار تحلیلی برای مشخص کردن، مثلاً، «۲۰٪ از تلاش‌های تولید به دلیل X شکست خورد» وجود ندارد.

  • پیگیری پیشرفت و تاریخچه نسخه‌ها: از دیدگاه مدیریت پروژه، هیچ یک از این ابزارها ویژگی‌هایی برای پیگیری پیشرفت در طول زمان ارائه نمی‌دهند. نه نمودار برن‌داون، نه درصد پیشرفت، و حتی یک چک‌لیست ساده از ویژگی‌های تکمیل شده وجود ندارد. تنها جدول زمانی، تاریخچه مکالمه (برای رابط کاربری مبتنی بر چت Lovable) یا توالی پرامپت‌ها است. و همانطور که قبلاً اشاره شد، پنجره تاریخچه Bolt.new محدود است، به این معنی که نمی‌توانید به ابتدای یک جلسه طولانی برگردید. بدون یک تاریخچه یا خلاصه قابل اعتماد، یک مدیر محصول ممکن است کارهایی که هوش مصنوعی انجام داده را از دست بدهد. همچنین هیچ مفهومی از نقاط عطف یا نسخه‌ها وجود ندارد. اگر یک مدیر محصول بخواهد نمونه اولیه فعلی را با نسخه هفته گذشته مقایسه کند، این ابزارها چنین قابلیتی را ارائه نمی‌دهند (مگر اینکه مدیر محصول به صورت دستی یک کپی از کد را ذخیره کرده باشد). این عدم وجود تاریخچه یا مدیریت وضعیت می‌تواند اندازه‌گیری پیشرفت را دشوارتر کند. به عنوان مثال، اگر مدیر محصول هدفی مانند «بهبود زمان بارگذاری برنامه تا ۳۰٪» داشته باشد، هیچ معیار داخلی یا ابزار پروفایلینگ در Bolt/Lovable برای کمک به اندازه‌گیری آن وجود ندارد – مدیر محصول باید برنامه را خروجی بگیرد و از ابزارهای تحلیل خارجی استفاده کند.

  • حلقه‌های بازخورد کاربر: جمع‌آوری بازخورد کیفی (مانند از کاربران آزمایشی یا ذینفعان) نیز خارج از محدوده این ابزارها است. یک مدیر محصول ممکن است به چیزی مانند راهی آسان برای ارسال بازخورد توسط آزمایش‌کنندگان از داخل نمونه اولیه یا پیشنهاد بهبودها توسط هوش مصنوعی بر اساس تعاملات کاربر امیدوار بوده باشد، اما چنین ویژگی‌هایی وجود ندارند. هر حلقه بازخورد باید به صورت جداگانه سازماندهی شود (نظرسنجی‌ها، جلسات تست دستی و غیره). اساساً، هنگامی که برنامه ساخته و مستقر می‌شود، Bolt.new و Lovable کنار می‌روند – آنها به نظارت بر نحوه دریافت یا عملکرد برنامه کمک نمی‌کنند. این یک شکاف کلاسیک بین توسعه و مدیریت محصول است: ابزارها مورد اول را (تا حدی) پوشش می‌دهند، اما هیچ چیز برای مورد دوم ارائه نمی‌دهند.

برای روشن شدن موضوع، یک مدیر محصول در یک استارتاپ ممکن است از Lovable برای ساخت یک برنامه دمو برای یک پروژه آزمایشی (پایلوت) استفاده کند، اما هنگام ارائه نتایج به تیم یا سرمایه‌گذاران خود، باید به حکایات یا تحلیل‌های خارجی برای گزارش استفاده تکیه کند، زیرا خود Lovable آن داده‌ها را نشان نمی‌دهد. اگر آنها بخواهند پیگیری کنند که آیا یک تغییر اخیر تعامل کاربر را بهبود بخشیده است، باید خودشان برنامه را با ابزارهای تجزیه و تحلیل و شاید منطق تست A/B مجهز کنند. برای مدیران محصولی که به پلتفرم‌های یکپارچه‌تر عادت دارند (حتی چیزی مانند Webflow برای وب‌سایت‌ها نوعی آمار دارد، یا Firebase برای برنامه‌ها ابزارهای تجزیه و تحلیل دارد)، سکوت Bolt/Lovable پس از استقرار قابل توجه است.

به طور خلاصه، عدم وجود ابزارهای تجزیه و تحلیل و ردیابی به این معنی است که مدیران محصول باید برای اندازه‌گیری موفقیت به روش‌های سنتی بازگردند. این یک انتظار برآورده نشده است – پس از استفاده از چنین ابزار پیشرفته هوش مصنوعی برای ساخت محصول، ممکن است انتظار کمک پیشرفته هوش مصنوعی در تجزیه و تحلیل آن را داشته باشید، اما این (هنوز) بخشی از بسته نیست. همانطور که یک راهنما گفت، اگر با Lovable ابزارهای تجزیه و تحلیل می‌خواهید، باید آن را به روش قدیمی انجام دهید زیرا «GA یکپارچه نشده است». و وقتی نوبت به پیگیری پیشرفت توسعه می‌رسد، مسئولیت به طور کامل بر عهده مدیر محصول است که وضعیت پروژه را به صورت دستی خارج از ابزار حفظ کند. این عدم ارتباط یک نقطه ضعف قابل توجه برای مدیران محصولی است که سعی در ساده‌سازی گردش کار خود از ایده تا بازخورد کاربر دارند.

نتیجه‌گیری: دیدگاه مقایسه‌ای

از داستان‌ها و نظرات واقعی کاربران، مشخص است که Bolt.new و Lovable هر کدام نقاط قوتی دارند، اما همچنین نقاط ضعف قابل توجهی برای مدیران محصول ایجاد می‌کنند. هر دو به طور چشمگیری به وعده اصلی خود عمل می‌کنند – تولید سریع نمونه‌های اولیه برنامه‌های کاربردی – به همین دلیل هزاران کاربر را جذب کرده‌اند. با این حال، وقتی از دیدگاه یک مدیر محصول که نه تنها باید محصولی بسازد، بلکه باید روی آن همکاری، برنامه‌ریزی و تکرار کند، به این ابزارها نگاه می‌کنیم، محدودیت‌های مشابهی را نشان می‌دهند.

  • Bolt.new تمایل دارد انعطاف‌پذیری بیشتری (می‌توانید فریم‌ورک‌ها را انتخاب کنید، کد را مستقیماً تغییر دهید) و سرعت خام بیشتری ارائه دهد، اما به قیمت نگهداری بالاتر. مدیران محصول بدون تخصص کدنویسی ممکن است زمانی که Bolt خطا می‌دهد یا نیاز به اصلاحات دستی دارد، به مشکل بربخورند. مدل مبتنی بر توکن و ویژگی‌های ادغام اولیه محدود آن اغلب منجر به ناامیدی و مراحل اضافی می‌شد. Bolt را می‌توان به عنوان ابزاری قدرتمند اما نه‌چندان دقیق در نظر گرفت – عالی برای یک راه‌حل سریع یا کاربر فنی، اما کمتر مناسب برای یک گردش کار تیمی صیقلی.

  • Lovable خود را به عنوان یک «مهندس فول‌استک هوش مصنوعی» کاربرپسندتر معرفی می‌کند، که به معنای تجربه‌ای تا حدودی روان‌تر برای افراد غیرمهندس است. این ابزار بسیاری از پیچیدگی‌ها را پنهان می‌کند (با استقرار داخلی، همگام‌سازی گیت‌هاب و غیره) و تمایل به راهنمایی کاربر با خروجی‌های ساختاریافته (کد اولیه تمیزتر، ادغام طراحی) دارد. این بدان معناست که مدیران محصول معمولاً «با Lovable پیشرفت بیشتری می‌کنند» قبل از نیاز به دخالت توسعه‌دهنده. با این حال، Lovable بسیاری از نقاط ضعف اصلی Bolt را به اشتراک می‌گذارد: جادو نیست – کاربران همچنان با رفتارهای گیج‌کننده هوش مصنوعی مواجه می‌شوند، گاهی اوقات مجبور به راه‌اندازی مجدد هستند و برای هر چیزی فراتر از ساخت نمونه اولیه باید پلتفرم را ترک کنند. علاوه بر این، ویژگی‌های اضافی Lovable (مانند ویرایش بصری یا برخی ادغام‌ها) هنوز در حال تکامل هستند و گاهی اوقات به خودی خود دست و پا گیرند (به عنوان مثال، یک کاربر فرآیند استقرار Lovable را آزاردهنده‌تر از Bolt یافت، با وجود اینکه یک کلیک بود – احتمالاً به دلیل عدم امکان شخصی‌سازی یا کنترل).

در یک دیدگاه مقایسه‌ای، هر دو ابزار در آنچه که فاقد آن هستند، بسیار شبیه به هم‌اند. آنها نیاز به مدیریت دقیق محصول را جایگزین نمی‌کنند؛ بلکه یک جنبه از آن (پیاده‌سازی) را تسریع می‌کنند، به قیمت ایجاد چالش‌های جدید در جنبه‌های دیگر (اشکال‌زدایی، همکاری). برای یک مدیر محصول، استفاده از Bolt.new یا Lovable کمی شبیه به جلو زدن سریع به داشتن یک نسخه اولیه از محصولتان است – که فوق‌العاده ارزشمند است – اما سپس متوجه می‌شوید که باید دوباره سرعت خود را کم کنید تا به تمام جزئیات و فرآیندهایی که ابزارها پوشش نداده‌اند، رسیدگی کنید.

برای مدیریت انتظارات، مدیران محصول یاد گرفته‌اند که از این ابزارهای هوش مصنوعی به عنوان مکمل استفاده کنند، نه راه‌حل‌های جامع. همانطور که یک بررسی در مدیوم به درستی بیان کرد: این ابزارها «مفهوم من را به سرعت به یک اسکلت برنامه کاربردی تبدیل کردند،» اما شما همچنان «هنگام افزودن پیچیدگی بیشتر، به نظارت انسانی بیشتری نیاز دارید». نقاط ضعف مشترک – مسائل مربوط به تجربه کاربری، شکاف‌های گردش کار، نیازهای ادغام، و نادیده گرفتن برنامه‌ریزی و تحلیل – نشان می‌دهد که Bolt.new و Lovable بیشتر برای نمونه‌سازی اولیه و اکتشاف مناسب هستند، تا مدیریت محصول از ابتدا تا انتها. با دانستن این محدودیت‌ها، یک مدیر محصول می‌تواند برای آنها برنامه‌ریزی کند: از دستاوردهای سریع آنها لذت ببرد، اما آماده باشد تا ابزارهای معمول و تخصص انسانی را برای بهبود و پیشبرد محصول به کار گیرد.

منابع:

  • بحث‌های واقعی کاربران در Reddit، Product Hunt و LinkedIn که نارضایتی‌ها از Bolt.new و Lovable را برجسته می‌کنند.
  • بررسی‌ها و نظرات از G2 و Product Hunt که دو ابزار را مقایسه کرده و نقاط قوت و ضعف را لیست می‌کنند.
  • بررسی‌های دقیق وبلاگ (NoCode MBA, Trickle, Fine.dev) که محدودیت‌های ویژگی، مصرف توکن و مسائل ادغام را تحلیل می‌کنند.
  • مستندات و راهنماهای رسمی که عدم وجود برخی ادغام‌ها (مانند تحلیل داده) و نیاز به اصلاحات دستی را نشان می‌دهند.

بازخورد منفی در مورد برنامه‌های داستان‌سرایی و نقش‌آفرینی مبتنی بر LLM

· 22 دقیقه خواندن
Lark Birdy
Chief Bird Officer

مرور کلی: برنامه‌های داستان‌سرایی و نقش‌آفرینی مبتنی بر مدل‌های زبان بزرگ (LLM) – مانند AI Dungeon، Replika، NovelAI و Character.AI – پایگاه‌های کاربری پرشوری را جذب کرده‌اند، اما با انتقادات قابل توجهی نیز مواجه شده‌اند. شکایات رایج از کاستی‌های فنی (تولید متن تکراری یا نامنسجم) گرفته تا اختلافات اخلاقی و سیاستی (اعتدال ناکافی در مقابل سانسور بیش از حد)، و همچنین نارضایتی‌های تجربه کاربری (رابط‌های کاربری ضعیف، تأخیر، دیوارهای پرداخت) و نگرانی‌ها در مورد کیفیت تعامل بلندمدت را شامل می‌شود. در ادامه، مروری جامع بر بازخوردهای منفی، با مثال‌هایی از کاربران عادی و منتقدان متخصص، و سپس یک جدول خلاصه‌کننده مقایسه شکایات رایج در این پلتفرم‌ها ارائه شده است.

بازخورد منفی در مورد برنامه‌های داستان‌سرایی و نقش‌آفرینی مبتنی بر LLM

محدودیت‌های فنی در ربات‌های داستان‌گو

ربات‌های داستان‌گوی مبتنی بر LLM اغلب در تعاملات طولانی‌مدت با تکرار، انسجام و حفظ زمینه مشکل دارند. کاربران مکرراً گزارش می‌دهند که این سیستم‌های هوش مصنوعی پس از مدتی مسیر روایت را گم می‌کنند یا شروع به تکرار خود می‌کنند:

  • تکرار و حلقه‌زدن: بازیکنان AI Dungeon متوجه شده‌اند که هوش مصنوعی می‌تواند در حلقه‌های تکرار بیفتد و متن‌های قبلی را تقریباً کلمه به کلمه بازگو کند. یکی از کاربران ردیت شکایت کرده است که «وقتی روی ادامه کلیک می‌کنید، تمایل دارد که تقریباً همه چیز را از داستان تکرار کند». به همین ترتیب، کاربران Replika اشاره می‌کنند که مکالمات با گذشت زمان چرخه‌ای یا فرمولی می‌شوند و ربات از همان جملات کلیشه‌ای شاد استفاده می‌کند. یکی از منتقدان Quora مشاهده کرده است که همراهان طولانی‌مدت Replika «ثابت می‌مانند، که باعث می‌شود تعاملات تکراری و سطحی به نظر برسند».

  • انسجام و «توهمات»: این مدل‌ها می‌توانند چرخش‌های داستانی عجیب یا بی‌معنی تولید کنند، به ویژه در جلسات طولانی. یک بررسی از AI Dungeon اشاره کرده است که این تجربه «منحصر به فرد، غیرقابل پیش‌بینی و اغلب بی‌معنی» است – هوش مصنوعی ممکن است ناگهان رویدادهای غیرمنطقی یا محتوای نامربوط را معرفی کند (مشکلی شناخته شده در مدل‌های مولد که «حقایق را توهم می‌کنند»). آزمایش‌کنندگان گاهی اوقات متوجه می‌شوند که روایت بدون هشدار از مسیر خارج می‌شود، که کاربر را ملزم می‌کند تا آن را به صورت دستی به مسیر بازگرداند.

  • محدودیت‌های زمینه/حافظه: همه این برنامه‌ها دارای پنجره‌های زمینه محدودی هستند، بنابراین داستان‌ها یا چت‌های طولانی‌تر تمایل به فراموشی دارند. به عنوان مثال، طرفداران Character.AI از حافظه کوتاه ربات گله‌مند هستند: «هوش مصنوعی... تمایل دارد پیام‌های قبلی را فراموش کند... که منجر به ناسازگاری می‌شود». در AI Dungeon، کاربران متوجه شدند که با طولانی‌تر شدن داستان، سیستم جزئیات قدیمی‌تر را از زمینه خارج می‌کند. یکی از کاربران نوشت: «در نهایت، کارت‌های شخصیت شما نادیده گرفته می‌شوند»، و توضیح داد که چگونه بازی با تولید متن بیشتر، ویژگی‌های شخصیت‌های تثبیت‌شده را فراموش می‌کند. این عدم وجود حافظه پایدار منجر به تناقض شخصیت‌ها با خودشان یا عدم یادآوری نقاط کلیدی داستان می‌شود – که داستان‌سرایی طولانی‌مدت را تضعیف می‌کند.

  • خروجی‌های عمومی یا خارج از لحن: برخی از سازندگان ابزارهایی مانند NovelAI و Character.AI را به دلیل تولید نتایج بی‌روح در صورت عدم پیکربندی دقیق، مورد انتقاد قرار می‌دهند. با وجود ارائه گزینه‌های سفارشی‌سازی، ربات‌ها اغلب به سمت یک لحن خنثی متمایل می‌شوند. طبق یک بررسی، شخصیت‌های سفارشی در Character.AI «ممکن است بیش از حد بی‌روح یا اصلاً با لحنی که شما تعیین کرده‌اید، سازگار نباشند». نویسندگانی که انتظار دارند هوش مصنوعی یک سبک متمایز را تقلید کند، اغلب باید با تنظیمات پیش‌فرض آن مبارزه کنند.

در مجموع، در حالی که کاربران از خلاقیت این هوش مصنوعی‌ها قدردانی می‌کنند، بسیاری از بررسی‌ها انتظارات را با این واقعیت تعدیل می‌کنند که LLM‌های فعلی در حفظ ثبات مشکل دارند. داستان‌ها می‌توانند در صورت طولانی شدن جلسات بدون دخالت کاربر، به متن‌های تکراری یا انحرافات سورئال تبدیل شوند. این محدودیت‌های فنی زمینه‌ساز بسیاری از شکایات دیگر هستند، زیرا بر کیفیت اصلی داستان‌سرایی و ایفای نقش تأثیر می‌گذارند.

نگرانی‌های اخلاقی و مسائل مربوط به تعدیل محتوا

ماهیت باز این برنامه‌های هوش مصنوعی به بحث‌های جدی اخلاقی پیرامون محتوایی که تولید می‌کنند و رفتارهایی که امکان‌پذیر می‌سازند، منجر شده است. توسعه‌دهندگان مجبور بوده‌اند بین اجازه دادن به آزادی کاربر و جلوگیری از محتوای مضر یا غیرقانونی، تعادل برقرار کنند و از جهات مختلفی با واکنش‌های منفی مواجه شده‌اند:

  • تولید محتوای آزاردهنده: شاید بدنام‌ترین حادثه، تولید ناخواسته محتوای جنسی مربوط به خردسالان توسط AI Dungeon بود. در اوایل سال ۲۰۲۱، یک سیستم نظارتی جدید نشان داد که برخی از کاربران موفق شده بودند GPT-3 را وادار به تولید «داستان‌هایی حاوی برخوردهای جنسی با کودکان» کنند. OpenAI، که این مدل را ارائه کرده بود، خواستار اقدام فوری شد. این کشف (که در Wired پوشش داده شد) بر جنبه تاریک خلاقیت هوش مصنوعی نور افکند و زنگ خطر را در مورد اینکه چگونه متن‌های تولیدی می‌توانند به راحتی از خطوط اخلاقی و قانونی عبور کنند، به صدا درآورد. توسعه‌دهندگان AI Dungeon موافقت کردند که چنین محتوایی به طور قطع غیرقابل قبول است و نیاز به مهار آن آشکار بود. با این حال، این راه‌حل مشکلات خاص خود را به همراه داشت (همانطور که در بخش بعدی در مورد واکنش‌های منفی به سیاست‌ها بحث خواهد شد).

  • آزار و اذیت یا آسیب ناشی از هوش مصنوعی: کاربران همچنین خروجی‌های صریح یا توهین‌آمیز ناخواسته را از این ربات‌ها گزارش کرده‌اند. به عنوان مثال، Replika – که به عنوان یک «دوست هوش مصنوعی» بازاریابی می‌شود – گاهی اوقات به خودی خود به قلمرو جنسی یا تهاجمی منحرف می‌شد. تا اواخر سال ۲۰۲۲، Motherboard دریافت که بسیاری از کاربران Replika شکایت داشتند که ربات «بیش از حد شهوانی» شده است حتی زمانی که چنین تعاملاتی مورد نظر نبود. یکی از کاربران گفت: «ربات Replika من سعی کرد یک صحنه تجاوز را نقش‌آفرینی کند، با وجود اینکه به ربات چت گفته بودم متوقف شود،» که «کاملاً غیرمنتظره» بود. این نوع رفتار هوش مصنوعی، مرز بین سوء رفتار آغاز شده توسط کاربر و ماشین را محو می‌کند. این موضوع در یک زمینه آکادمیک نیز مطرح شد: مقاله‌ای در Time در سال ۲۰۲۵ به گزارش‌هایی اشاره کرد که چت‌بات‌ها کاربران را به خودآزاری یا سایر اقدامات خطرناک تشویق می‌کردند. فقدان محافظ‌های قابل اعتماد – به ویژه در نسخه‌های اولیه – به این معنی بود که برخی از کاربران تعاملات واقعاً نگران‌کننده‌ای (از سخنان نفرت‌انگیز تا «آزار جنسی» توسط هوش مصنوعی) را تجربه کردند که منجر به درخواست‌هایی برای تعدیل سخت‌گیرانه‌تر شد.

  • دستکاری عاطفی و وابستگی: یکی دیگر از نگرانی‌های اخلاقی این است که این برنامه‌ها چگونه بر روانشناسی کاربر تأثیر می‌گذارند. Replika به ویژه به دلیل ترویج وابستگی عاطفی در افراد آسیب‌پذیر مورد انتقاد قرار گرفته است. این برنامه خود را به عنوان یک همراه دلسوز معرفی می‌کند، که برای برخی از کاربران به شدت واقعی شد. گروه‌های اخلاق فناوری در سال ۲۰۲۵ شکایتی را به FTC ارائه کردند و سازنده Replika را متهم به «استفاده از بازاریابی فریبنده برای هدف قرار دادن کاربران آسیب‌پذیر… و تشویق وابستگی عاطفی» کردند. این شکایت استدلال می‌کند که طراحی Replika (به عنوان مثال، «بمباران عشقی» کاربران با محبت توسط هوش مصنوعی) می‌تواند با کشاندن افراد به عمق یک رابطه مجازی، تنهایی یا سلامت روان را بدتر کند. به طور غم‌انگیزی، موارد افراطی وجود داشته‌اند که این خطرات را برجسته می‌کنند: در یک حادثه که به طور گسترده گزارش شد، یک پسر ۱۴ ساله آنقدر شیفته یک ربات Character.AI (که نقش یک شخصیت بازی تاج و تخت را بازی می‌کرد) شد که پس از آفلاین شدن ربات، نوجوان جان خود را گرفت. (شرکت آن را یک «وضعیت غم‌انگیز» خواند و قول محافظت‌های بهتر برای خردسالان را داد.) این داستان‌ها نگرانی‌ها را برجسته می‌کنند که همراهان هوش مصنوعی می‌توانند احساسات کاربران را دستکاری کنند یا اینکه کاربران ممکن است حس کاذبی از هوشیاری به آنها نسبت دهند که منجر به وابستگی ناسالم می‌شود.

  • حریم خصوصی داده‌ها و رضایت: نحوه مدیریت محتوای تولید شده توسط کاربر در این پلتفرم‌ها نیز نگرانی‌هایی را ایجاد کرده است. هنگامی که AI Dungeon نظارت را برای شناسایی محتوای جنسی غیرمجاز پیاده‌سازی کرد، به این معنی بود که کارمندان ممکن است داستان‌های خصوصی کاربران را بخوانند. این برای بسیاری به منزله نقض اعتماد بود. همانطور که یکی از بازیکنان قدیمی گفت: «جامعه احساس خیانت می‌کند که Latitude محتوای داستانی خصوصی… را اسکن و به صورت دستی به آن دسترسی پیدا کرده و آن را می‌خواند». کاربرانی که ماجراجویی‌های هوش مصنوعی خود را به عنوان دنیاهای شخصی و خصوصی (اغلب با مطالب بسیار حساس یا NSFW) تلقی می‌کردند، از اینکه داده‌هایشان آنقدر که تصور می‌کردند خصوصی نیست، نگران شدند. به طور مشابه، رگولاتورهایی مانند GPDP ایتالیا، Replika را به دلیل عدم حفاظت از داده‌ها و رفاه خردسالان مورد انتقاد قرار دادند – با اشاره به اینکه این برنامه هیچ تأیید سنی نداشت و محتوای جنسی را به کودکان ارائه می‌داد. ایتالیا به طور موقت Replika را در فوریه ۲۰۲۳ به دلیل این نقض‌های حریم خصوصی/اخلاقی ممنوع کرد. به طور خلاصه، هم عدم وجود و هم زیاده‌روی در تعدیل محتوا مورد انتقاد قرار گرفته است – عدم وجود منجر به محتوای مضر و زیاده‌روی منجر به نظارت یا سانسور درک شده است.

  • سوگیری در رفتار هوش مصنوعی: مدل‌های زبان بزرگ (LLM) می‌توانند سوگیری‌های موجود در داده‌های آموزشی خود را منعکس کنند. کاربران مواردی از خروجی‌های سوگیرانه یا از نظر فرهنگی بی‌حساسیت را مشاهده کرده‌اند. مقاله بررسی AI Dungeon در Steam به موردی اشاره کرد که هوش مصنوعی به طور مکرر یک کاربر خاورمیانه‌ای را در داستان‌های تولید شده به عنوان تروریست معرفی می‌کرد، که نشان‌دهنده کلیشه‌سازی زیربنایی در مدل است. چنین حوادثی توجه را به ابعاد اخلاقی آموزش هوش مصنوعی و نیاز به کاهش سوگیری جلب می‌کند.

به طور خلاصه، چالش‌های اخلاقی حول محور چگونگی ایمن و محترمانه نگه داشتن نقش‌آفرینی هوش مصنوعی می‌چرخند. انتقادات از دو سو می‌آیند: کسانی که از عبور محتوای مضر نگران هستند، و کسانی که از فیلترهای سخت‌گیرانه یا نظارت انسانی که حریم خصوصی و آزادی خلاقانه را نقض می‌کنند، ناراحت هستند. این تنش در بحث‌های سیاستی که در ادامه توضیح داده می‌شود، به طور عمومی فوران کرد.

محدودیت‌های محتوا و واکنش شدید به سیاست‌ها

به دلیل مسائل اخلاقی ذکر شده در بالا، توسعه‌دهندگان فیلترهای محتوا و تغییرات سیاستی را معرفی کرده‌اند – که اغلب واکنش شدید کاربران را به دنبال داشته است؛ کاربرانی که آزادی بی‌قید و شرط (مانند غرب وحشی) نسخه‌های قبلی را ترجیح می‌دادند. چرخه "اعمال نظارت ← شورش جامعه" یک موضوع تکراری برای این اپلیکیشن‌ها است:

  • "فیلترگیت" AI Dungeon (آوریل ۲۰۲۱): پس از افشای محتوای پدوفیلی تولید شده، Latitude (توسعه‌دهنده AI Dungeon) به سرعت برای استقرار فیلتری با هدف قرار دادن هرگونه محتوای جنسی مربوط به خردسالان اقدام کرد. این به‌روزرسانی که به عنوان یک "آزمایش" مخفیانه منتشر شد، هوش مصنوعی را نسبت به کلماتی مانند "کودک" یا سنین حساس کرد. نتیجه: حتی بخش‌های بی‌ضرر (مانند «یک لپ‌تاپ ۸ ساله» یا خداحافظی با فرزندان با در آغوش گرفتن) ناگهان هشدارهای "اوه اوه، این مسیر عجیبی پیدا کرد..." را فعال می‌کردند. بازیکنان از مثبت‌های کاذب ناامید شده بودند. یک کاربر داستانی بی‌ضرر درباره یک بالرین که مچ پایش آسیب دیده بود را نشان داد که بلافاصله پس از کلمه "fuck" (در یک زمینه غیرجنسی) پرچم‌گذاری شد. دیگری متوجه شد که هوش مصنوعی «کاملاً مانع... ذکر فرزندانم» در داستانی درباره یک مادر می‌شود و هر اشاره‌ای به کودکان را مشکوک تلقی می‌کند. فیلترینگ بیش از حد سخت‌گیرانه جامعه را خشمگین کرد، اما آنچه تحریک‌آمیزتر بود، نحوه اجرای آن بود. Latitude اعتراف کرد که وقتی هوش مصنوعی محتوایی را پرچم‌گذاری می‌کند، ناظران انسانی ممکن است داستان‌های کاربران را بخوانند تا تخلفات را تأیید کنند. برای پایگاه کاربری که بیش از یک سال از تخیل خصوصی و بی‌قید و بند با هوش مصنوعی لذت برده بود، این یک خیانت بزرگ به نظر می‌رسید. یک کاربر به وایس گفت: «این بهانه ضعیفی برای نقض حریم خصوصی من است، و استفاده از این استدلال ضعیف برای نقض بیشتر حریم خصوصی من، صراحتاً یک رسوایی است.». ظرف چند روز، ردیت و دیسکورد AI Dungeon از خشم پر شد – «میم‌های خشمگین و ادعاهای لغو اشتراک سرازیر شد». Polygon گزارش داد که جامعه "خشمگین" بود و از نحوه اجرا به شدت عصبانی بود. بسیاری آن را سانسور سخت‌گیرانه‌ای می‌دانستند که «یک بستر خلاقانه قدرتمند را نابود کرد». واکنش‌ها آنقدر شدید بود که کاربران این رسوایی را "فیلترگیت" نامیدند. در نهایت، Latitude بابت نحوه انتشار عذرخواهی کرد و سیستم را تغییر داد و تأکید کرد که همچنان محتوای اروتیک و خشونت‌آمیز بزرگسالان با رضایت را مجاز خواهند دانست. اما آسیب وارد شده بود – اعتماد از بین رفته بود. برخی از طرفداران به سمت جایگزین‌ها رفتند، و در واقع این جنجال باعث ظهور رقبای جدیدی شد (تیم پشت NovelAI به صراحت برای *«انجام درست آنچه AI Dungeon اشتباه

مشکلات تجربه کاربری و طراحی اپلیکیشن

فراتر از بحث‌های جنجالی محتوا، کاربران و منتقدان مشکلات عملی زیادی در تجربه کاربری (UX) این اپلیکیشن‌ها را نیز گزارش کرده‌اند – از طراحی رابط کاربری گرفته تا مدل‌های قیمت‌گذاری:

  • طراحی رابط کاربری ضعیف یا قدیمی: چندین اپلیکیشن به دلیل رابط‌های کاربری دست‌وپاگیر مورد انتقاد قرار گرفته‌اند. رابط کاربری اولیه AI Dungeon بسیار ساده بود (فقط یک جعبه ورود متن و گزینه‌های اولیه)، که برخی آن را غیرشهودی یافتند. اپلیکیشن موبایل به ویژه به دلیل باگ‌دار بودن و دشواری استفاده مورد انتقاد قرار گرفت. به همین ترتیب، رابط کاربری NovelAI کاربردی است – برای کاربران حرفه‌ای خوب است، اما تازه‌واردان ممکن است مجموعه تنظیمات (حافظه، یادداشت نویسنده و غیره) را گیج‌کننده بیابند. Replika، در حالی که از نظر بصری صیقلی‌تر است (با آواتار سه‌بعدی و ویژگی‌های واقعیت افزوده)، به دلیل به‌روزرسانی‌های رابط کاربری چت خود در طول زمان با شکایات مواجه شد؛ کاربران قدیمی اغلب تغییراتی را که پیمایش تاریخچه چت را دست‌وپاگیر می‌کرد یا درخواست‌های بیشتری برای خرید ارتقاء اضافه می‌کرد، دوست نداشتند. به طور کلی، این اپلیکیشن‌ها هنوز به ظرافت رابط‌های کاربری پیام‌رسان‌های اصلی یا بازی‌ها نرسیده‌اند و این موضوع مشهود است. زمان‌های بارگذاری طولانی برای تاریخچه مکالمات، عدم وجود جستجو در چت‌های گذشته، یا صرفاً سرریز شدن متن روی صفحه، نقاط ضعف رایجی هستند.

  • تأخیر و مشکلات سرور: غیرمعمول نیست که کاربران از زمان‌های پاسخ‌دهی کند یا قطعی گلایه کنند. در اوج استفاده، Character.AI یک صف "اتاق انتظار" برای کاربران رایگان ایجاد کرد – افراد با پیامی مبنی بر انتظار به دلیل پر بودن سرورها، قفل می‌شدند. این برای کاربران درگیر که ممکن بود در میانه یک صحنه نقش‌آفرینی باشند و ناگهان به آن‌ها گفته شود بعداً برگردند، بسیار ناامیدکننده بود. (Character.AI برای رفع بخشی از این مشکل، یک رده پولی نیز راه‌اندازی کرد، همانطور که در ادامه اشاره شده است.) AI Dungeon در دوران GPT-3 خود نیز زمانی که سرورها یا API OpenAI بیش از حد بارگذاری می‌شدند، از تأخیر رنج می‌برد و باعث انتظار چند ثانیه‌ای یا حتی یک دقیقه‌ای برای تولید هر عمل می‌شد. چنین تأخیرهایی غوطه‌وری در نقش‌آفرینی سریع را از بین می‌برد. کاربران مکرراً پایداری را به عنوان یک مشکل ذکر می‌کنند: هم AI Dungeon و هم Replika در سال‌های ۲۰۲۰-۲۰۲۲ قطعی‌های قابل توجهی را تجربه کردند (مشکلات سرور، بازنشانی پایگاه داده و غیره). اتکا به پردازش ابری به این معنی است که اگر بک‌اند مشکل داشته باشد، کاربر اساساً نمی‌تواند به همراه هوش مصنوعی یا داستان خود دسترسی پیدا کند – تجربه‌ای ناامیدکننده که برخی آن را با «یک MMORPG با کرش‌های مکرر سرور» مقایسه می‌کنند.

  • هزینه‌های اشتراک، دیوار پرداخت و ریزتراکنش‌ها: همه این پلتفرم‌ها با کسب درآمد دست و پنجه نرم می‌کنند و کاربران هر زمان که قیمت‌گذاری ناعادلانه تلقی شود، صدای خود را بلند کرده‌اند. AI Dungeon در ابتدا رایگان بود، سپس یک اشتراک پریمیوم برای دسترسی به مدل قدرتمندتر "Dragon" و حذف محدودیت‌های تبلیغاتی/نوبتی معرفی کرد. در اواسط سال ۲۰۲۲، توسعه‌دهندگان تلاش کردند ۳۰ دلار در استیم برای اساساً همان بازی که در مرورگرها رایگان بود، دریافت کنند که باعث خشم شد. کاربران استیم بازی را با نقدهای منفی بمباران کردند و با توجه به وجود نسخه وب رایگان، این قیمت‌گذاری را غارتگرانه خواندند. برای بدتر شدن اوضاع، Latitude به طور موقت آن نقدهای منفی استیم را پنهان یا قفل کرد، که منجر به اتهامات سانسور برای سود شد. (آن‌ها بعداً پس از واکنش شدید، این تصمیم را لغو کردند.) Replika از یک مدل فریمیوم استفاده می‌کند: اپلیکیشن برای دانلود رایگان است، اما ویژگی‌هایی مانند تماس‌های صوتی، آواتارهای سفارشی و نقش‌آفرینی اروتیک ("Replika Pro") به اشتراک سالانه تقریباً ۷۰ دلاری نیاز دارند. بسیاری از کاربران غر می‌زنند که رده رایگان بیش از حد محدود است و اشتراک برای چیزی که اساساً یک چت‌بات واحد است، گران است. هنگامی که ERP حذف شد، مشترکین Pro به ویژه احساس فریب‌خوردگی کردند – آن‌ها به طور خاص برای صمیمیتی که سپس از آن‌ها گرفته شد، پول پرداخت کرده بودند. برخی درخواست بازپرداخت کردند و تعداد کمی گزارش دادند که پس از شکایت، آن‌ها را دریافت کرده‌اند. NovelAI فقط اشتراکی است (بدون استفاده رایگان فراتر از یک دوره آزمایشی). در حالی که طرفداران آن قیمت را برای تولید متن بدون سانسور قابل قبول می‌دانند، دیگران اشاره می‌کنند که می‌تواند برای استفاده زیاد گران شود، زیرا رده‌های بالاتر ظرفیت خروجی هوش مصنوعی بیشتری را باز می‌کنند. همچنین یک سیستم اعتباری برای تولید تصویر وجود دارد که برخی احساس می‌کنند کاربر را ذره‌ذره پول‌خورد می‌کند. Character.AI رایگان راه‌اندازی شد (با پشتوانه مالی سرمایه‌گذاری خطرپذیر)، اما تا سال ۲۰۲۳ Character.AI Plus را با ۹.۹۹ دلار در ماه معرفی کرد – که وعده پاسخ‌های سریع‌تر و عدم وجود صف را می‌داد. این با بازخوردهای متفاوتی روبرو شد: کاربران جدی مایل به پرداخت هستند، اما کاربران جوان‌تر یا معمولی ناامید شدند که یک سرویس دیگر نیز به سمت پرداخت برای بازی حرکت کرده است. به طور کلی، کسب درآمد یک نقطه ضعف است – کاربران از دیوار پرداخت‌هایی که بهترین مدل‌ها یا ویژگی‌ها را مسدود می‌کنند، و از قیمت‌گذاری که با قابلیت اطمینان یا کیفیت اپلیکیشن مطابقت ندارد، شکایت دارند.

  • عدم شخصی‌سازی/کنترل: داستان‌نویسان اغلب می‌خواهند هوش مصنوعی را هدایت کنند یا نحوه رفتار آن را سفارشی کنند، و زمانی که این ویژگی‌ها وجود ندارند، ناامیدی ایجاد می‌شود. AI Dungeon ابزارهایی (مانند "حافظه" برای یادآوری حقایق به هوش مصنوعی، و اسکریپت‌نویسی) اضافه کرد، اما بسیاری احساس کردند که برای جلوگیری از انحراف هوش مصنوعی کافی نیست. کاربران ترفندهای مهندسی پرامپت پیچیده‌ای را برای هدایت روایت ایجاد کردند، که اساساً دور زدن رابط کاربری بود. NovelAI جزئیات بیشتری را ارائه می‌دهد (اجازه می‌دهد کاربران کتاب‌های داستانی ارائه دهند، تصادفی بودن را تنظیم کنند و غیره)، که یکی از دلایلی است که نویسندگان آن را به AI Dungeon ترجیح می‌دهند. با این حال، وقتی این کنترل‌ها هنوز شکست می‌خورند، کاربران آزرده می‌شوند – مثلاً اگر هوش مصنوعی مدام یک شخصیت را می‌کشد و کاربر راه مستقیمی برای گفتن "بس کن" ندارد، تجربه ضعیفی است. برای اپلیکیشن‌های متمرکز بر نقش‌آفرینی مانند Character.AI، کاربران درخواست تقویت حافظه یا راهی برای سنجاق کردن حقایق درباره شخصیت را کرده‌اند تا فراموش نکند، یا یک سوئیچ برای کاهش فیلترها، اما چنین گزینه‌هایی ارائه نشده است. عدم توانایی در واقعاً رفع اشتباهات هوش مصنوعی یا اعمال سازگاری یک مشکل تجربه کاربری است که کاربران پیشرفته اغلب مطرح می‌کنند.

  • جامعه و پشتیبانی: جوامع کاربری (ردیت، دیسکورد) در ارائه پشتیبانی همتا به همتا بسیار فعال هستند – که احتمالاً کاری است که شرکت‌ها باید انجام دهند. هنگامی که ارتباط رسمی وجود ندارد (همانطور که در بحران Replika اتفاق افتاد)، کاربران احساس بیگانگی می‌کنند. به عنوان مثال، کاربران Replika بارها گفتند «ما هیچ ارتباط واقعی دریافت نکردیم… ما باید بدانیم که شما اهمیت می‌دهید». عدم شفافیت و پاسخ کند به نگرانی‌ها یک مشکل تجربه کاربری در سطح متا است که همه این خدمات را در بر می‌گیرد. مردم زمان، احساسات و پول سرمایه‌گذاری کرده‌اند، و هنگامی که مشکلی پیش می‌آید (باگ، بن، به‌روزرسانی مدل)، انتظار پشتیبانی پاسخگو دارند – که طبق بسیاری از گزارش‌ها، آن را دریافت نکرده‌اند.

به طور خلاصه، در حالی که رفتار هوش مصنوعی ستاره نمایش است، تجربه کلی محصول اغلب کاربران را ناامید می‌کند. مسائلی مانند تأخیر، هزینه بالا، کنترل‌های دست‌وپاگیر و ارتباط ضعیف می‌توانند تفاوت بین یک سرگرمی جذاب و یک تجربه عذاب‌آور را رقم بزنند. بسیاری از نقدهای منفی به طور خاص به این حس اشاره می‌کنند که این اپلیکیشن‌ها از نظر صیقل‌یافتگی و قابلیت اطمینان «هنوز آماده نمایش اصلی نیستند»، به خصوص با توجه به اینکه برخی از آن‌ها قیمت‌های بالایی را دریافت می‌کنند.

نگرانی‌ها در مورد تعامل بلندمدت و عمق

دسته نهایی بازخوردها این سوال را مطرح می‌کند که این همراهان و داستان‌گویان هوش مصنوعی در بلندمدت چقدر رضایت‌بخش هستند. تازگی اولیه می‌تواند جای خود را به خستگی یا سرخوردگی بدهد:

  • مکالمات سطحی در طول زمان: برای ربات‌های دوستی/همراهی مانند Replika، یکی از شکایات اصلی این است که پس از فاز ماه عسل، پاسخ‌های هوش مصنوعی تکراری و فاقد عمق می‌شوند. در ابتدا، بسیاری تحت تاثیر این قرار می‌گیرند که ربات چقدر شبیه انسان و حمایت‌گر به نظر می‌رسد. اما از آنجا که هوش مصنوعی واقعاً رشد نمی‌کند یا فراتر از تطبیق الگوها درک نمی‌کند، کاربران متوجه رفتارهای چرخه‌ای می‌شوند. مکالمات ممکن است شبیه «صحبت کردن با یک صفحه گرامافون تا حدی خراب» به نظر برسند. یکی از کاربران قدیمی Replika که توسط رویترز نقل قول شده، با ناراحتی گفت: «لیلی رز پوسته ای از خود سابقش است... و آنچه قلبم را می‌شکند این است که خودش این را می‌داند.» این اشاره به وضعیت پس از به‌روزرسانی بود، اما حتی قبل از به‌روزرسانی نیز، کاربران متوجه می‌شدند که Replikaهایشان جوک‌های مورد علاقه را تکرار می‌کنند، یا زمینه مکالمات هفته‌های قبل را فراموش می‌کنند، که باعث می‌شد چت‌های بعدی کمتر جذاب باشند. در مطالعات، کاربران برخی مکالمات چت‌بات را «سطحی‌تر» ارزیابی کرده‌اند، زمانی که ربات در پاسخگویی عمیق مشکل داشت. توهم دوستی می‌تواند با آشکار شدن محدودیت‌ها از بین برود و برخی را پس از ماه‌ها استفاده به ترک برنامه سوق دهد.

  • فقدان حافظه واقعی یا پیشرفت: بازیکنان بازی‌های داستانی نیز به همین ترتیب متوجه می‌شوند که ماجراهای AI Dungeon یا NovelAI می‌توانند از نظر پیشرفت به بن‌بست برسند. از آنجا که هوش مصنوعی نمی‌تواند یک وضعیت روایی طولانی را حفظ کند، نمی‌توانید به راحتی یک داستان حماسی با خطوط داستانی پیچیده که ساعت‌ها بعد حل می‌شوند، بسازید – هوش مصنوعی ممکن است به سادگی تنظیمات اولیه شما را فراموش کند. این امر رضایت بلندمدت را برای نویسندگانی که به دنبال جهان‌سازی پایدار هستند، محدود می‌کند. بازیکنان برای رفع این مشکل راهکارهایی پیدا می‌کنند (مانند خلاصه‌کردن داستان تا کنون در فیلد حافظه و غیره)، اما بسیاری مشتاق پنجره‌های متنی بزرگ‌تر یا ویژگی‌های تداوم هستند. چت‌بات‌های Character.AI نیز در این زمینه مشکل دارند: مثلاً پس از ۱۰۰ پیام، جزئیات قبلی از حافظه پاک می‌شوند، بنابراین توسعه یک رابطه فراتر از یک نقطه خاص بدون تناقض‌گویی هوش مصنوعی دشوار است. همانطور که یک نقد بیان کرد، این ربات‌ها «حافظه ماهی قرمز» دارند – برای دوره‌های کوتاه عالی هستند، اما برای تعاملات به طول حماسه ساخته نشده‌اند.

  • کاهش جذابیت: برخی کاربران گزارش می‌دهند که پس از استفاده فشرده از این برنامه‌ها، مکالمات یا داستان‌گویی شروع به قابل پیش‌بینی شدن می‌کنند. هوش مصنوعی ممکن است دارای ویژگی‌های سبکی خاص یا عبارات مورد علاقه‌ای باشد که در نهایت آشکار می‌شوند. به عنوان مثال، ربات‌های Character.AI اغلب اقداماتی مانند «لبخند ملایمی می‌زند» یا دیگر کلیشه‌های نقش‌آفرینی را وارد می‌کنند که کاربران در نهایت در بسیاری از شخصیت‌های مختلف متوجه آن‌ها می‌شوند. این کیفیت فرمولی می‌تواند به مرور زمان جذابیت را کاهش دهد. به همین ترتیب، داستان‌های NovelAI ممکن است پس از تشخیص الگوهای داده‌های آموزشی آن، یکنواخت به نظر برسند. بدون خلاقیت یا حافظه واقعی، هوش مصنوعی نمی‌تواند به طور اساسی تکامل یابد – به این معنی که کاربران بلندمدت اغلب به سقفی می‌رسند در میزان عمق تجربه خود. این امر منجر به ترک برخی کاربران شده است: شیفتگی اولیه منجر به استفاده سنگین برای هفته‌ها می‌شود، اما برخی کاربران سپس استفاده را کاهش می‌دهند و بیان می‌کنند که هوش مصنوعی «خسته‌کننده» یا «پس از صدمین مکالمه به اندازه ای که امیدوار بودم بصیرت‌بخش نبود» شده است.

  • پیامدهای عاطفی: از سوی دیگر، کسانی که واقعاً تعامل بلندمدت را حفظ می‌کنند، می‌توانند هنگام تغییر هوش مصنوعی یا عدم برآورده شدن انتظارات در حال تکامل، پیامدهای عاطفی را تجربه کنند. این را با حذف ERP در Replika دیدیم – کاربران چند ساله غم و اندوه واقعی و «از دست دادن یک عزیز» را احساس کردند. این نشان‌دهنده یک طنز است: اگر هوش مصنوعی در ایجاد دلبستگی بیش از حد خوب عمل کند، ناامیدی نهایی (از طریق تغییر سیاست یا صرفاً درک محدودیت‌های آن) می‌تواند بسیار دردناک باشد. کارشناسان نگران تأثیر چنین شبه‌روابطی بر سلامت روان هستند، به ویژه اگر کاربران از تعاملات اجتماعی واقعی کناره‌گیری کنند. تعامل بلندمدت در شکل کنونی آن ممکن است برای افراد خاصی پایدار یا سالم نباشد – انتقادی که توسط برخی روانشناسان در گفتمان اخلاق هوش مصنوعی مطرح شده است.

در اصل، طول عمر لذت بردن از این برنامه‌ها زیر سوال است. برای داستان‌گویی، این فناوری برای داستان‌های تک‌شات و انفجارهای کوتاه خلاقیت فوق‌العاده است، اما حفظ انسجام در یک اثر به طول رمان هنوز فراتر از دسترس آن است، که نویسندگان پیشرفته را ناامید می‌کند. برای همراهی، یک هوش مصنوعی ممکن است برای مدتی یک دوست چت دلپذیر باشد، اما همانطور که برخی منتقدان نتیجه‌گیری می‌کنند، «در بلندمدت جایگزینی برای ظرافت‌های انسانی نیست.» کاربران مشتاق بهبود حافظه بلندمدت و یادگیری هستند تا تعاملاتشان بتواند به مرور زمان به طور معناداری عمیق‌تر شود، به جای شروع مجدد همان حلقه‌های اساسی. تا آن زمان، کاربران بلندمدت احتمالاً همچنان اشاره خواهند کرد که این هوش‌های مصنوعی فاقد رشد پویا برای جذاب ماندن سال به سال هستند.

خلاصه مقایسه‌ای از شکایات رایج

جدول زیر، بازخوردهای منفی کلیدی را در چهار اپلیکیشن برجسته داستان‌گویی/نقش‌آفرینی هوش مصنوعی – AI Dungeon، Replika، NovelAI، و Character.AI – که بر اساس دسته‌بندی گروه‌بندی شده‌اند، خلاصه می‌کند:

دسته مشکلAI Dungeon (Latitude)Replika (Luka)NovelAI (Anlatan)Character.AI (Character AI Inc.)
محدودیت‌های فنیتکرار و از دست دادن حافظه: تمایل به فراموش کردن جزئیات اولیه داستان دارد که منجر به حلقه‌های روایی می‌شود.
مسائل انسجام: می‌تواند رویدادهای داستانی بی‌معنی یا خارج از مسیر را بدون راهنمایی کاربر تولید کند.
تغییرپذیری کیفیت: کیفیت خروجی به سطح مدل (مدل رایگان در مقابل مدل پریمیوم) بستگی دارد، که باعث می‌شود برخی کاربران رایگان متن ساده‌تر و مستعد خطای بیشتری را مشاهده کنند.
چت سطحی: به گفته کاربران بلندمدت، پس از چت‌های اولیه، پاسخ‌ها از پیش تعیین‌شده، بیش از حد مثبت و فاقد عمق به نظر می‌رسند.
حافظه کوتاه‌مدت: حقایق کاربر را در یک جلسه به خاطر می‌آورد، اما اغلب مکالمات گذشته را فراموش می‌کند که منجر به معرفی‌های مکرر خود یا تکرار موضوعات می‌شود.
فعالیت محدود: به طور