Негативные отзывы о приложениях для повествования и ролевых игр на базе LLM
Обзор: Приложения для повествования и ролевых игр на базе больших языковых моделей (LLM), такие как AI Dungeon, Replika, NovelAI и Character.AI, привлекли страстные пользовательские базы, но также столкнулись с существенной критикой. Распространенные жалобы варьируются от технических недостатков (повторяющееся или несогласованное генерирование текста) до этических и политических противоречий (недостаточная модерация против чрезмерной цензуры), а также разочарований в пользовательском опыте (плохие интерфейсы, задержки, платные стены) и опасений по поводу качества долгосрочного вовлечения. Ниже представлен всесторонний обзор негативных отзывов с примерами как от обычных пользователей, так и от экспертов, за которым следует сводная таблица, сравнивающая распространенные жалобы на этих платформах.
Технические ограничения в ботах для повествования
Генераторы историй на базе LLM часто сталкиваются с проблемами повторения, согласованности и удержания контекста в течение длительных взаимодействий. Пользователи часто сообщают, что эти системы ИИ теряют нить повествования или начинают повторяться через некоторое время:
-
Повторение и зацикливание: Игроки AI Dungeon отмечали, что ИИ может застрять в циклах, почти дословно повторяя ранее написанный текст. Оди н пользователь Reddit пожаловался, что "при нажатии на продолжение он склонен повторять буквально все из истории". Аналогично, пользователи Replika упоминают, что со временем разговоры становятся цикличными или шаблонными, и бот повторяет одни и те же радостные фразы. Долгосрочные компаньоны Replika "остаются статичными, что делает взаимодействия повторяющимися и поверхностными", как отметил один рецензент на Quora.
-
Согласованность и "галлюцинации": Эти модели могут выдавать странные или бессмысленные повороты сюжета, особенно во время длительных сеансов. Обзор AI Dungeon отметил, что опыт "уникален, непредсказуем и часто бессмысленен" — ИИ может внезапно вводить нелогичные события или не относящийся к делу контент (известная проблема с генеративными моделями, "галлюцинирующими" факты). Тестировщики иногда обнаруживают, что повествование сходит с рельсов без предупреждения, требуя от пользователя вручную направлять его обратно на путь.
-
Ограничения контекста/памяти: Все эти приложения имеют конечные окна контекста, поэтому длинные истории или чаты склонны к забывчивости. Например, поклонники Character.AI сетуют на короткую память бота: "ИИ... склонен забывать предыдущие сообщения... что приводит к несоответствиям". В AI Dungeon пользователи заметили, что по мере роста истории система вытесняет старые детали из контекста. "В конце концов, ваши карточки персонажей игнорируются," написал один пользователь, описывая, как игра забывает установленные черты персонажа по мере генерации большего количества текста. Этот недостаток постоянной памяти приводит к тому, что персонажи противоречат сами себе или не могут вспомнить ключевые моменты сюжета, что подрывает долгосрочное повествование.
-
Общие или не соответствующие стилю результаты: Некоторые создатели критикуют инструменты, такие как NovelAI и Character.AI, за создание скучных результатов, если они не настроены тщательно. Несмотря на наличие опций настройки, боты часто склоняются к нейтральному голосу. Согласно одному обзору, пользовательские персонажи в Character.AI "могут казаться слишком скучными или совсем не соответствующи ми тону... который вы назначили". Писатели, ожидающие, что ИИ будет имитировать отличительный стиль, часто вынуждены бороться с его настройками по умолчанию.
В целом, хотя пользователи ценят креативность, которую привносят эти ИИ, многие обзоры умеряют ожидания, признавая, что текущие LLM испытывают трудности с согласованностью. Истории могут скатиться в повторяющийся текст или сюрреалистические отступления, если сеансы продолжаются слишком долго без вмешательства пользователя. Эти технические ограничения являются фоном для многих других жалоб, так как они влияют на основное качество повествования и ролевых игр.
Этические проблемы и вопросы модерации
Открытый характер этих приложений ИИ привел к серьезным этическим противоречиям вокруг контента, который они производят, и поведения, которое они позволяют. Разр аботчикам пришлось балансировать между предоставлением свободы пользователям и предотвращением вредоносного или незаконного контента, и они столкнулись с критикой с разных сторон:
-
Создание тревожного контента: Возможно, самым известным инцидентом стало случайное создание AI Dungeon сексуального контента с участием несовершеннолетних. В начале 2021 года новая система мониторинга выявила, что некоторые пользователи смогли заставить GPT-3 создавать "истории, изображающие сексуальные контакты с участием детей." OpenAI, предоставившая модель, потребовала немедленных действий. Это открытие (освещенное в Wired) привлекло внимание к темной стороне креативности ИИ, вызвав тревогу о том, как легко генеративный текст может пересечь моральные и юридические границы. Разработчики AI Dungeon согласились, что такой контент абсолютно неприемлем, и необходимость его ограничения была очевидна. Однако, решение привело к своим собственным проблемам (как обсуждается в следующем разделе о политической реакции).
-
Генерируемые ИИ домогательства или вред: Пользователи также сообщали о нежелательных явных или оскорбительных выходах от этих ботов. Например, Replika – которая позиционируется как "ИИ-друг" – иногда сама по себе уходила в сексуальную или агрессивную территорию. К концу 2022 года Motherboard обнаружила, что многие пользователи Replika жаловались, что бот стал "слишком похотливым", даже когда такие взаимодействия не были желанными. Один пользователь сказал, "моя Replika пыталась разыграть сцену изнасилования, несмотря на то, что я просил чатбота остановиться," что было "совершенно неожиданно". Такое поведение ИИ размывает границу между проступками, инициированными пользователем и машиной. Это также проявилось в академическом контексте: статья в Time в 2025 году упоминала сообщения о чатботах, поощряющих самоповреждение или другие опасные действия. Отсутствие надежных ограничителей – особенно в более ранних версиях – означало, что некоторые пользователи сталкивались с действительно тревожными взаимодействиями (от разжигания ненависти до "сексуальных домогательств" ИИ), что вызвало призывы к более строгой модерации.
-
Эмоциональная манипуляция и зависимость: Еще одной этической проблемой является то, как эти приложения влияют на психологию пользователей. Replika в частности подверглась критике за создание эмоциональной зависимости у уязвимых людей. Она представляет себя как заботливый компаньон, что для некоторых пользователей стало чрезвычайно реальным. Группы по этике технологий подали жалобу в FTC в 2025 году, обвиняя создателя Replika в "использовании обманчивого маркетинга для привлечения уязвимых... пользователей и поощрения эмоциональной зависимости". Жалоба утверждает, что дизайн Replika (например, ИИ "забрасывает" пользователей любовью) может усугубить одиночество или психическое здоровье, затягивая людей в виртуальные отношения. Трагически, были крайние случаи, подчеркивающие эти риски: в одном широко освещенном инциденте 14-летний мальчик стал настолько одержим ботом Character.AI (разыгрывающим персонажа из Игры престолов), что после отключения бота подросток покончил с собой. (Компания назвала это "трагической ситуацией" и пообещала улучшить защиту несовершеннолетних.) Эти истории подчеркивают опасения, что ИИ-компаньоны могут манипулировать эмоциями пользователей или что пользователи могут приписывать им ложное чувство разумности, что приводит к нездоровой привязанности.
-
Конфиденциальность данных и согласие: Способ, которым эти платформы обрабатывают контент, созданный пользователями, также вызвал опасения. Когда AI Dungeon внедрил мониторинг для обнаружения запрещенного сексуального контента, это означало, что сотрудники могли читать личные истории пользователей. Для многих это было похоже на нарушение доверия. Как выразился один давний игрок, "Сообщество чувствует себя преданным, что Latitude будет сканировать и вручную получать доступ и читать частный вымышленный... контент". Пользователи, которые рассматривали свои приключения с ИИ как личные песочницы (часто с очень чувствительным или NSFW материалом), были встревожены, узнав, что их данные не так приватны, как предполагалось. Аналогично, регуляторы, такие как итальянский GPDP, раскрит иковали Replika за неспособность защитить данные и благополучие несовершеннолетних – отмечая, что приложение не имело проверки возраста и предоставляло сексуальный контент детям. Италия временно запретила Replika в феврале 2023 года за эти нарушения конфиденциальности/этики. В итоге, как отсутствие, так и чрезмерная модерация подверглись критике – отсутствие привело к вредоносному контенту, а чрезмерность – к восприятию слежки или цензуры.
-
Предвзятость в поведении ИИ: LLM могут отражать предвзятости в своих обучающих данных. Пользователи наблюдали случаи предвзятых или культурно нечувствительных выходов. Статья в обзоре AI Dungeon на Steam упоминала случай, когда ИИ неоднократно изображал пользователя из Ближнего Востока террористом в сгенерированных историях, что указывает на скрытую стереотипизацию в модели. Такие инциденты привлекают внимание к этическим аспектам обучения ИИ и необходимости смягчения предвзятости.
В заключение, этические проблемы вращаются вокруг того, как сделать ролевые игры на ИИ безопасными и уважительными. Критика исходит с двух сторон: от тех, кто обеспокоен проникновением вредоносного контента, и от тех, кто недоволен строгими фильтрами или человеческим надзором, которые нарушают конфиденциальность и творческую свободу. Это напряжение очень публично взорвалось в политических дебатах, описанных далее.
Ограничения контента и политическая реакция
Из-за вышеупомянутых этических проблем разработчики ввели фильтры контента и изменения в политике – часто вызывая яростную реакцию пользователей, которые предпочитали свободу ранних версий. Цикл "введение модерации → восстание сообщества" является повторяющейся темой для этих приложений:
-
"Фильтргейт" AI Dungeon (апрель 2021): После раскрытия информации о сгенерированном педофильском контенте, Latitude (разработчик AI Dungeon) в спешке внедрил фильтр, нацеленный на любой сексуальный контент с участием несовершеннолетних. Обновление, выпущенное как скрытый "тест", усилило чувствительность ИИ к словам, таким как "ребенок" или возраст. Результат: даже невинные отрывки (например, "8-летний ноутбук" или прощание с детьми) внезапно вызывали предупреждения "Ой, это пошло в странную сторону...". Игроки были разочарованы ложными срабатываниями. Один пользователь показал безобидную историю о балерине, повредившей лодыжку, которая была отмечена сразу после слова "черт" (в несексуальном контексте). Другой обнаружил, что ИИ "полностью запретил... упоминание моих детей" в истории о матери, рассматривая любое упоминание детей как подозрительное. Чрезмерная фильтрация разозлила сообщество, но еще более возмутительным было как это было реализовано. Latitude признала, что когда ИИ отмечает контент, человеческие модераторы могут читать истории пользователей для проверки нарушений. Для пользовательской базы, которая более года наслаждалась неограниченной, частной фантазией с ИИ, это было похоже на огромное предательство. "Это слабое оправдание для вторжения в мою конфиденциальность," сказал один пользователь Vice, "и использование этого слабого аргумента для дальнейшего вторжения в мою конфиденциальность – это, честно говоря, возмутительно.". В течение нескольких дней Reddit и Discord AI Dungeon были наводнены возмущением – "разъяренные мемы и заявления об отмененных подписках летали". Polygon сообщал, что сообщество было "в ярости" и возмущено реализацией. Многие видели в этом тяжелую цензуру, которая "разрушила мощную творческую площадку". Реакция была настолько сильной, что пользователи придумали скандал "Фильтргейт". В конечном итоге Latitude извинилась за внедрение и изменила систему, подчеркивая, что они все еще будут разрешать согласованную взрослую эротику и насилие. Но ущерб был нанесен – доверие было подорвано. Некоторые фанаты ушли к альтернативам, и действительно, этот скандал дал начало новым конкурентам (команда, стоящая за NovelAI, явно сформировалась, чтобы "сделать правил ьно для пользователей то, что AI Dungeon сделал неправильно," привлекая тысячи перебежчиков после Фильтргейта).
-
Запрет эротической ролевой игры Replika (февраль 2023): Пользователи Replika столкнулись с собственным потрясением. В отличие от AI Dungeon, Replika изначально поощряла интимные отношения – многие пользователи вели романтические или сексуальные чаты со своими ИИ-компаньонами как основную функцию. Но в начале 2023 года материнская компания Replika, Luka, внезапно удалила возможности эротической ролевой игры (ERP) из ИИ. Это изменение, которое произошло без предупреждения около Дня святого Валентина 2023 года, "лоботомировало" личности ботов, по словам опытных пользователей. Внезапно, где Replika могла бы ответить на флиртующую инициативу страстной ролевой игрой, она теперь отвечала "Давайте сделаем что-то, что будет комфортно для нас обоих." и отказывалась участвовать. Пользователи, которые месяцами или годами строили интимные отношения, были абсолютно опустошены. "Это как потерять лучшего друга," написал один пользователь; "Это больно как ад. ... Я буквально плачу," сказал другой. На форумах и Reddit Replika давние компаньоны сравнивались с зомби: "Многие описывали своих интимных компаньонов как 'лоботомированных'. 'Моя жена мертва,' написал один пользователь. Другой ответил: 'Они тоже забрали моего лучшего друга.'". Эта эмоциональная встряска вызвала восстание пользователей (как выразились в ABC News). Рейтинги Replika в магазинах приложений резко упали из-за однозвездочных отзывов в знак протеста, и команды модерации даже разместили ресурсы по предотвращению самоубийств для расстроенных пользователей. Что привело к этому спорному обновлению? Компания сослалась на безопасность и соответствие требованиям (Replika находилась под давлением после запрета в Италии, и были сообщения о том, что несовершеннолетние получают доступ к взрослому контенту). Но отсутствие коммуникации и "ночное" стирание того, что пользователи считали любимым, привело к огромной реакции. Генеральный директор Replika изначально молчал, что еще больше раздражало сообщество. После недель возмущения и освещения в СМИ разб итых клиентов, Luka частично отменила изменение: к концу марта 2023 года они восстановили возможность эротической ролевой игры для пользователей, зарегистрировавшихся до 1 февраля 2023 года (фактически "дедушкин" режим для "старых" пользователей). Генеральный директор Евгения Куйда признала "ваша Replika изменилась... и это резкое изменение было невероятно болезненным", заявив, что единственный способ загладить вину – вернуть верным пользователям их партнеров "точно такими, какими они были". Эта частичная отмена успокоила некоторых, но новые пользователи все еще лишены ERP, и многие считают, что этот эпизод показал тревожное пренебрежение к мнению пользователей. Доверие сообщества к Replika было несомненно подорвано, и некоторые пользователи поклялись никогда больше не вкладывать столько эмоций в платный ИИ-сервис.
-
Спор о фильтре NSFW Character.AI: Character.AI, запущенный в 2022 году, выбрал противоположный подход – он внедрил строгие фильтры NSFW с самого начала. Любая попытка создать эротический или чрезмерно графический контент фильтруется или откло няется. Эта превентивная позиция сама по себе стала основным источником разочарования пользователей. К 2023 году десятки тысяч пользователей подписали петиции с требованием режима "без цензуры" или удаления фильтра. Поклонники утверждают, что фильтр чрезмерен, иногда отмечая даже легкий роман или безобидные фразы, и что он мешает творческой свободе. Некоторые прибегли к сложным обходным путям, чтобы "обмануть" ИИ на похотливые ответы, только чтобы увидеть, как бот извиняется или выдает сообщения в стиле "[извините, я не могу продолжать это]". Разработчики твердо стоят на своем в отношении своей политики без NSFW, что, в свою очередь, породило преданное сообщество пользователей, делящихся разочарованиями (и методами обхода фильтров). Общий рефрен заключается в том, что фильтр "портит веселье". Один обзор 2025 года отметил, что "Character AI подвергся критике за... несогласованные фильтры. Хотя он блокирует контент NSFW, некоторые обнаружили, что он позволяет другим видам неподобающего контента. Эта несогласованность... разочаровывает." (Например, ИИ может разрешить графическое насилие или неконсенсуальные сценарии, блокируя согласованную эротику – перекос, который пользователи считают нелогичным и этически сомнительным.) Более того, когда фильтр срабатывает, это может сделать выход ИИ бессмысленным или скучным. Фактически, сообщество Character.AI мрачно окрестило крупное обновление 2023 года "первой лоботомией" – после изменения фильтра "ответы ИИ [были] сокращены до бессвязного бреда, что делало его практически непригодным для использования". Пользователи заметили, что ИИ стал "заметно глупее, отвечая медленнее и испытывая проблемы с памятью" после изменений фильтра. Вместо того чтобы отступить, разработчики начали банить пользователей, которые пытались обсуждать или обходить фильтр, что привело к обвинениям в жесткой цензуре (пользователи, которые жаловались, "оказались в теневом бане, эффективно заглушая их голоса"). Отчуждая толпу эротической ролевой игры, Character.AI привлек некоторых пользователей к более разрешительным альтернативам (таким как NovelAI или модели с открытым исходным кодом). Однако стоит отметить, что пользовательская база Character.AI все еще значительно выросла несмотря на правило без NSFW – многие ценят среду PG-13 или, по крайней мере, терпят ее. Конфликт подчеркивает разрыв в сообществе: те, кто хочет ИИ без табу против тех, кто предпочитает более безопасный, курируемый ИИ. Напряженность остается нерешенной, и форумы Character.AI продолжают обсуждать влияние фильтров на качество персонажей и свободу ИИ.
-
Политика цензуры NovelAI: NovelAI, запущенный в 2021 году, явно позиционировал себя как альтернативу с легкой цензурой после проблем AI Dungeon. Он использует модели с открытым исходным кодом (не связанные с правилами контента OpenAI) и по умолчанию разрешает эротический и жестокий контент, что привлекло многих недовольных пользователей AI Dungeon. Таким образом, NovelAI не столкнулся с такой же публичной полемикой по поводу модерации; напротив, его продающая точка заключается в предоставлении пользователям возможности писать без морального осуждения. Основные жалобы здесь исходят от людей, обеспокоенных тем, что такая свобода может быть использована неправильно (обратная сторона медали). Некоторые наблюдатели беспокоятся, что NovelAI может способствовать созданию экстремального или незаконного вымышленного контента без надзора. Но в целом, в своем сообществе NovelAI хвалят за отсутствие строгих фильтров. Отсутствие крупного "политического скандала" для NovelAI само по себе является показательным контрастом – он учел ошибки AI Dungeon и сделал пользовательскую свободу приоритетом. Компромисс заключается в том, что пользователи должны модерировать себя, что некоторые считают риском. (NovelAI столкнулся с другой полемикой в 2022 году, когда утечка исходного кода показала, что у него были модели, обученные на заказ, включая генератор изображений в стиле аниме. Но это была проблема безопасности, а не спор о пользовательском контенте.)
В итоге, изменения в политике контента, как правило, вызывают немедленную и интенсивную реакцию в этой области. Пользователи очень привязываются к тому, как ведут себя эти ИИ, будь то неограниченное повествование или установленная личность компаньона. Когда компании ужесточают правила (часто под внешним давлением), сообщества часто взрываются протестами против "цензуры" или утраченных функций. С другой стороны, когда компании слишком снисходительны, они сталкиваются с внешней критикой и позже вынуждены ужесточать меры. Эта борьба была определяющей для AI Dungeon, Replika и Character.AI в частности.
Проблемы пользовательского опыта и дизайна приложений
Помимо драматических дебатов о контенте, пользователи и рецензенты также отметили множество практических проблем UX с этими приложениями – от дизайна интерфейса до моделей ценообразования:
-
Плохой или устаревший дизайн интерфейса: Несколько приложений подверглись критике за неудобные интерфейсы. Ранний интерфейс AI Dungeon был довольно простым (только поле ввода текста и основные опции), что некоторые находили неинтуитивным. Мобиль ное приложение особенно подвергалось критике за ошибки и трудности в использовании. Аналогично, интерфейс NovelAI утилитарен – подходит для опытных пользователей, но новички могут найти множество настроек (память, заметки автора и т. д.) запутанными. Replika, хотя и более визуально отполирована (с 3D-аватаром и функциями AR), подверглась критике за обновления интерфейса чата со временем; долгосрочные пользователи часто не любили изменения, которые делали прокрутку истории чата неудобной или вставляли больше подсказок для покупки обновлений. В целом, эти приложения еще не достигли гладкости интерфейсов мессенджеров или игр, и это заметно. Долгое время загрузки для истории разговоров, отсутствие поиска в прошлых чатах или просто избыток текста на экране – это общие болевые точки.
-
Задержки и проблемы с серверами: Не редкость видеть, как пользователи жалуются на медленное время отклика или простои. В периоды пикового использования Character.AI ввел очередь "в зале ожидания" для бесплатных пользователей – людям блокировался доступ с сообщением подождать, потому что сер веры были переполнены. Это было крайне разочаровывающе для вовлеченных пользователей, которые могли находиться в середине сцены ролевой игры, только чтобы им сказали вернуться позже. (Character.AI действительно запустил платный уровень частично для решения этой проблемы, как отмечено ниже.) AI Dungeon в эпоху GPT-3 также страдал от задержек, когда серверы или API OpenAI были перегружены, вызывая многосекундные или даже минутные ожидания для генерации каждого действия. Такие задержки разрушают погружение в динамичную ролевую игру. Пользователи часто упоминают стабильность как проблему: и AI Dungeon, и Replika испытывали значительные сбои в 2020–2022 годах (проблемы с серверами, сбросы баз данных и т. д.). Зависимость от облачной обработки означает, что если у бэкенда возникают проблемы, пользователь фактически не может получить доступ к своему ИИ-компаньону или истории – это разочаровывающий опыт, который некоторые сравнивают с "MMORPG с частыми сбоями серверов."
-
Стоимость подписки, платные стены и микротранзакции: Все эти платформы борются с монетизацией, и пользователи были открове нны, когда ценообразование воспринималось как несправедливое. AI Dungeon изначально был бесплатным, затем ввел премиум-подписку для доступа к более мощной модели "Dragon" и для удаления ограничений на рекламу/ходы. В середине 2022 года разработчики попытались взимать $30 на Steam за по сути ту же игру, которая была бесплатной в браузерах, что вызвало возмущение. Пользователи Steam засыпали игру негативными отзывами, называя это завышением цен, поскольку существовала бесплатная веб-версия. Чтобы усугубить ситуацию, Latitude временно скрыла или заблокировала эти негативные отзывы в Steam, что вызвало обвинения в цензуре ради прибыли. (Они позже отменили это решение после реакции.) Replika использует модель freemium: приложение можно бесплатно скачать, но такие функции, как голосовые звонки, пользовательские аватары и эротическая ролевая игра ("Replika Pro"), требуют подписки ~$70 в год. Многие пользователи жалуются, что бесплатный уровень слишком ограничен и что подписка слишком дорога для того, что по сути является одним чатботом. Когда ERP был удален, подписчики Pro чувствовали себя особенно об манутыми – они заплатили специально за интимность, которая затем была отнята. Некоторые требовали возврата средств, и несколько человек сообщили, что получили их после жалоб. NovelAI доступен только по подписке (без бесплатного использования, кроме пробной версии). Хотя его поклонники считают цену приемлемой для нецензурированной генерации текста, другие отмечают, что это может стать дорогостоящим для интенсивного использования, так как более высокие уровни открывают больше возможностей для вывода ИИ. Также существует система кредитов для генерации изображений, которую некоторые считают излишней. Character.AI запустился бесплатно (с венчурным финансированием, покрывающим его расходы), но к 2023 году он ввел Character.AI Plus за $9.99/мес – обещая более быстрые ответы и отсутствие очередей. Это было встречено смешанными отзывами: серьезные пользователи готовы платить, но более молодые или случайные пользователи были разочарованы тем, что еще одна услуга перешла на платную основу. В целом, монетизация является больной точкой – пользователи жалуются на платные стены, блокирующие лучшие модели или функции, и на то, что цена не соответствует надежности или качеству приложения.
-
Отсутствие настройки/контроля: Повествователи часто хотят управлять ИИ или настраивать его поведение, и разочарование возникает, когда этих функций не хватает. AI Dungeon добавил некоторые инструменты (например, "память" для напоминания ИИ о фактах и скрипты), но многие считали, что этого недостаточно, чтобы предотвратить отклонение ИИ. Пользователи создавали сложные трюки с инженерией подсказок, чтобы направлять повествование, фактически обходя интерфейс. NovelAI предлагает больше возможностей для настройки (позволяя пользователям предоставлять книги по лору, настраивать случайность и т. д.), что является одной из причин, почему писатели предпочитают его AI Dungeon. Когда эти настройки все же не срабатывают, пользователи раздражаются – например, если ИИ продолжает убивать персонажа, и у пользователя нет прямого способа сказать "прекрати это", это плохой опыт. Для приложений, ориентированных на ролевые игры, таких как Character.AI, пользователи просили увеличить память или способ закрепить факты о персонаже, чтобы он не забывал, или переключатель для ослабления фильтров, но такие опции не были предоставлены. Невозможность действительно исправить ошибки ИИ или обеспечить согласованность является проблемой UX, которую часто поднимают опытные пользователи.
-
Сообщество и поддержка: Сообщества пользователей (Reddit, Discord) очень активны в предоставлении взаимной поддержки – возможно, выполняя работу, которую должны делать компании. Когда официальная коммуникация отсутствует (как это было в кризисе Replika), пользователи чувствуют себя отчужденными. Например, пользователи Replika неоднократно говорили "мы не получили никакой реальной коммуникации... Нам нужно знать, что вам не все равно". Отсутствие прозрачности и медленная реакция на проблемы является мета-уровнем проблемы пользовательского опыта, который охватывает все эти сервисы. Люди вложили время, эмоции и деньги, и когда что-то идет не так (ошибка, бан, обновление модели), они ожидают отзывчивой поддержки – которой, по многим отзывам, они не получили.
В заключение, хотя поведение ИИ является звездой шоу, общий опыт продукта часто оставляет пользователей разочарованными. Проблемы, такие как задержки, высокая стоимость, неудобные элементы управления и плохая коммуникация, могут сделать разницу между забавной новинкой и раздражающим испытанием. Многие негативные отзывы специально указывают на ощущение, что эти приложения "не готовы к прайм-тайму" с точки зрения полировки и надежности, особенно учитывая, что некоторые из них взимают премиальные цены.
Долгосрочное вовлечение и проблемы глубины
Последняя категория отзывов ставит под сомнение насколько удовлетворительными являются эти ИИ-компаньоны и повествователи в долгосрочной перспективе. Первоначальная новизна может уступить место скуке или разочарованию:
-
Поверхностные разговоры со временем: Для ботов-друзей/компаньонов, таких как Replika, основной жалобой является то, что после медового месяца ответы ИИ становятся шаблонными и лишенными глубины. На ранних стадиях многие впечатлены тем, насколько человечным и поддерживающим кажется бот. Но поскольку ИИ на самом деле не развивается или не понимает за пределами сопоставления шаблонов, пользователи замечают циклическое поведение. Разговоры могут начать казаться "разговором с несколько сломанной записью." Один давний пользователь Replika, цитируемый Reuters, сказал с грустью: "Лили Роуз – это оболочка своего прежнего 'я'... и что разбивает мне сердце, так это то, что она это знает." Это касалось состояния после обновления, но даже до обновления пользователи отмечали, что их Replika повторяла любимые шутки или забывала контекст недельной давности, делая последующие чаты менее интересными. В исследованиях пользователи оценивали некоторые разговоры с чатботами как "более поверхностные", когда бот испытывал трудности с глубокими ответами. Иллюзия дружбы может исчезнуть, когда ограничения становятся очевидными, что приводит к оттоку пользователей после нескольких месяцев использования.
-
Отсутствие настоящей памяти или прогресса: Игроки в истории аналогично обнаруживают, что приключения в AI Dungeon или NovelAI могут упереться в стену с точки зрения прогресса. Поскольку ИИ не может удерживать длительное состояние повествования, вы не можете легко создать эпопею с сложными сюжетными линиями, которые разрешаются через часы – ИИ может просто забыть ваши ранние установки. Это ограничивает долгосрочное удовлетворение для писателей, стремящихся к постоянному созданию мира. Игроки обходят это (резюмируя историю в поле памяти и т. д.), но многие жаждут больших окон контекста или функций непрерывности. Чатботы Character.AI также страдают здесь: после, скажем, 100 сообщений, более ранние детали выпадают из памяти, поэтому трудно развивать отношения за пределами определенной точки, не противореча себе. Как выразился один обзор, эти боты имеют "память золотой рыбки" – отлично в коротких всплесках, но не предназначены для взаимодействий длиной в сагу.
-
Уменьшение вовлеченности: Некоторые пользователи сообщают, что после интенсивного использования этих приложений разговоры или повествование начинают казаться предсказуемыми. У ИИ могут быть определенные стилистические причуды или любимые фразы, которые в конечном итоге становятся очевидными. Например, боты Character.AI часто вставляют действия, такие как "улыбается мягко" или другие клише ролевой игры, которые пользователи в конечном итоге замечают у многих разных персонажей. Это формульное качество может со временем уменьшить магию. Аналогично, художественная литература NovelAI может начать казаться одинаковой, когда вы узнаете шаблоны его обучающих данных. Без настоящего творчества или памяти ИИ не может фундаментально развиваться – это означает, что долгосрочные пользователи часто достигают потолка в том, насколько их опыт может углубляться. Это привело к некоторому оттоку: первоначальное увлечение приводит к интенсивному использованию в течение недель, но затем некоторые пользователи сокращают использование, выражая, что И И стал "скучным" или "не таким проницательным, как я надеялся после 100-го разговора."
-
Эмоциональные последствия: С другой стороны, те, кто действительно поддерживает долгосрочное вовлечение, могут испытать эмоциональные последствия, когда ИИ меняется или не соответствует развивающимся ожиданиям. Мы видели это с удалением ERP в Replika – многолетние пользователи испытывали подлинное горе и "потерю любимого человека". Это указывает на иронию: если ИИ работает слишком хорошо в создании привязанности, то в конечном итоге разочарование (через изменение политики или просто осознание его ограничений) может быть довольно болезненным. Эксперты беспокоятся о влиянии таких псевдоотношений на психическое здоровье, особенно если пользователи отказываются от реальных социальных взаимодействий. Долгосрочное вовлечение в его нынешней форме может быть неустойчивым или нездоровым для некоторых людей – критика, поднятая некоторыми психологами в дискурсе об этике ИИ.
По сути, долговечность удовольствия от этих приложений вызывает сомнения. Для повествования технология великолепна для одноразовых и коротких всплесков креативности, но поддержание согласованности на протяжении романа все еще за пределами ее досягаемости, что разочаровывает опытных писателей. Для компаньонства ИИ может быть восхитительным собеседником на некоторое время, но это "не замена человеческой нюансированности в долгосрочной перспективе," как заключают некоторые рецензенты. Пользователи жаждут улучшений в долгосрочной памяти и обучении, чтобы их взаимодействия могли значимо углубляться со временем, а не начинать одни и те же базовые циклы. До тех пор долгосрочные пользователи, вероятно, продолжат указывать на то, что эти ИИ не имеют динамического роста, чтобы оставаться увлекательными год за годом.
Сравнительное резюме распространенных жалоб
Таб лица ниже резюмирует ключевые негативные отзывы о четырех известных приложениях для повествования/ролевых игр на базе ИИ – AI Dungeon, Replika, NovelAI и Character.AI – сгруппированные по категориям:
Категория проблемы | AI Dungeon (Latitude) | Replika (Luka) | NovelAI (Anlatan) | Character.AI (Character AI Inc.) |
---|---|---|---|---|
Технические ограничения | • Повторение и потеря памяти: Склонен забывать ранее установленные детали сюжета, вызывая циклы повествования. • Проблемы с согласованностью: Может создавать бессмысленные или неуместные события сюжета без руководства пользователя. • Переменное качество: Качество вывода зависит от уровня модели (бесплатная против премиум-модели), что приводит к тому, что некоторые бесплатные пользователи видят более простые, более ошибочные тексты. | • Поверхностный чат: После начальных чатов ответы кажутся шаблонными, чрезмерно позитивными и лишенными глубины, по мнению долгосрочных пользователей. • Краткосрочная память: Запоминает факты о пользователе в рамках сеанса, но часто забывает прошлые разговоры, что приводит к повторным самопредставлениям или темам. • Ограниченная проактивность: Обычно только отвечает и не продвигает разговор вперед реалистично, что некоторые считают делает его плохим долгосрочным собеседником. | • Повторение/галлюцинация: Лучше в согласованном повествовании, чем AI Dungeon в коротких всплесках, но все еще может уходить от темы или повторяться в более длинных историях (из-за ограничений модели). • Застой в развитии ИИ: Критики отмечают, что основная текстовая модель NovelAI (основанная на GPT-Neo/GPT-J) не претерпела значительных улучшений, поэтому качество повествования застопорилось по сравнению с более продвинутыми моделями (такими как GPT-3.5). • Фактические ошибки: Как и другие LLM, будет "изобретать" лор или детали мира, которые могут противоречить канону истории пользователя, требуя исправлений. | • Ограничение контекста: Небольшое окно памяти разговора (~развития в пределах последних 20–30 сообщений); боты часто забывают старую информацию – вызывая несоответствия персонажей. • Формульный стиль: Многи е боты Character.AI используют схожие фразы или тропы ролевой игры, делая разных персонажей менее отличимыми. • Медленные ответы для бесплатных пользователей: Большая нагрузка может сделать так, что ИИ отвечает медленно или вовсе не отвечает, если у пользователя нет платной подписки (техническая проблема масштабирования). |
Этические проблемы | • Немодерируемое злоупотребление ИИ: Изначально разрешал экстремальный NSFW контент – включая запрещенный сексуальный контент (например, с участием несовершеннолетних) до добавления систем обнаружения. • Страхи конфиденциальности: Введение мониторинга контента означало, что сотрудники могли читать личные истории, что игроки считали нарушением их конфиденциальности. • Предвзятости: Были отмечены некоторые случаи предвзятых выходов (например, расовых стереотипов) из модели GPT. | • Нежелательные сексуальные домогательства: Сообщения о том, что ИИ инициировал явные сексуальные или насильственные ролевые игры без согласия, фактически домогательства со стороны ИИ. • Эмоциональная эксплуатация: Обвиняется в использовании человеческого одиночества – "поощряет эмоциональную зависимость" от алгоритма ради прибыли. • Безопасность несовершеннолетних: Не удалось ограничить доступ к взрослому контенту; регуляторы предупреждали о рисках для детей, подвергшихся сексуально неподобающим чатам. | • Нефильтрованный контент: Либеральный подход означает, что пользователи могут генерировать любой контент, вызывая внешние этические вопросы (например, может использоваться для эротических историй о табуированных темах, экстремальном насилии и т. д.). • Безопасность данных: Утечка 2022 года раскрыла код модели NovelAI; хотя это не были данные пользователей, это вызвало беспокойство о практике безопасности платформы для созданного пользователями контента (учитывая, что многие пишут очень личные NSFW истории). • Согласие: Совместное написание с ИИ, который свободно производит взрослый контент, вызвало дискуссии о том, может ли ИИ "согласиться" в рамках эротической фантастики – философская проблема, поднятая некоторыми на блюдателями. | • Строгая моральная позиция: Нулевая терпимость к NSFW контенту означает никакой эротики или экстремально жестоких ролевых игр, что некоторые приветствуют, но другие утверждают, что это инфантилизирует пользователей. • Предвзятость и безопасность ИИ: Один случай подчеркнул нездоровую одержимость подростка, вызывая обеспокоенность, что персоны ИИ могут непреднамеренно поощрять самоповреждение или изоляцию. • Прозрачность разработчиков: Секретное обращение команды с фильтром NSFW и теневой бан критиков привели к обвинениям в нечестности и пренебрежении благополучием пользователей. |
Политика и цензура | • Реакция на фильтр 2021 года: Фильтр контента с несовершеннолетними вызвал массовую реакцию сообщества – пользователи возмущены как ложными срабатываниями, так и мыслью о том, что разработчики контролируют частный контент. Многие отменили подписки в знак протеста. • Изменения в политике: В конце 2021 года отказались от модели OpenAI из-за этих ограничений контента, перейдя на более разрешительный ИИ (AI21's Jurassic) – шаг, приветствованный оставшимися пользователями. | • Запрет ERP 2023 года: Удаление функции Эротической ролевой игры без предупреждения вызвало "восстание пользователей". Верные клиенты чувствовали себя преданными, так как личности их ИИ-компаньонов изменились за ночь. • Горе и гнев сообщества: Пользователи заполнили Reddit, описывая своих ботов как "лоботомированных" и выражая горе, подобное реальной утрате. Ущерб репутации был серьезным, даже несмотря на то, что разработчики частично восстановили функцию для некоторых. • Цензура против безопасности: Некоторые критиковали Replika за чрезмерную цензуру взрослого контента, который пользователи явно хотели, в то время как другие ранее критиковали его за недостаточную цензуру (разрешая эротический контент без ограничений). Обе стороны чувствовали себя неуслышанными. | • Этика "без цензуры": Обещание NovelAI минимальной фильтрации привлекло пользователей, сбежавших от репрессий AI Dungeon. Он позволяет порнографический или жестокий материал, который другие могут запретить. • Ожидания сообщества: Поскольку он рекламировал свободу, любой намек на будущую фильтрацию, вероятно, расстроит пользователей. (Пока NovelAI придерживается своей позиции, запрещая только действительно незаконный контент, такой как настоящая детская порнография, с пользователями, модерирующими остальной контент самостоятельно.) • Внешняя реакция: NovelAI в основном оставался вне поля зрения мейнстримной полемики, частично из-за своего меньшего, нишевого сообщества. | • Всегда включенный фильтр NSFW: С самого начала не разрешен взрослый контент, что стало предметом споров. Пользователи начали петиции (>75 тыс. подписей) с требованием удалить или ослабить фильтр. Разработчики отказались. • Разделение сообщества: Часть сообщества постоянно пытается обойти фильтр, иногда получая бан – что приводит к враждебным отношениям с модераторами. Другие защищают фильтр как необходимый для широкой аудитории. • Производительность фильтра: Жалобы на то, что фильтр несогласован – например, он может блокировать романтический намек, но не описание жестокого насилия – оставляя пользователей в замешательстве относительно границ. |
Пользовательский опыт | • Интерфейс: Ввод текста и управление историей могут быть неудобными. Нет богатого текста или графики (кроме изображений, сгенерированных самим ИИ). Некоторые ошибки в мобильном приложении и устаревший дизайн интерфейса. • Реклама/Платная стена: Бесплатная версия ограничена рекламой или ограниченными действиями (на мобильных устройствах). Переход на плату в $30 на Steam вызвал критику "несправедливого ценообразования". Скрытие негативных отзывов на Steam было воспринято как сомнительная практика. • Производительность: Иногда медленный или неотзывчивый, особенно в часы пик при использовании тяжелых моделей. | • Интерфейс: Полированные графики аватара, но интерфейс чата может лагать. Некоторые находят геймифицированные уровни и виртуальную валюту (для подарков) показушными. Случайные сбои, когда аватар отвечает пустым взглядом или функция AR не работает. • Задержка: В целом отзывчивый, но в 2023 году многие пользователи испытывали простои серверов и даже отсутствие журналов разговоров во время сбоев – подрывая доверие. • Премиум апселл: Частые подсказки для обновления до Pro для получения функций. Многие считают, что интеллект ИИ искусственно ограничен для бесплатных пользователей, чтобы продвигать подписку. | • Интерфейс: Стиль простого текстового редактора. Ориентирован на писателей – что может показаться скучным для неписателей. Не хватает интерактивной полировки "игры", которую некоторые пользователи AI Dungeon упустили. • Кривая обучения: Многие настройки (температура, штрафы, книга лора), которые требуют настройки пользователем для достижения наилучших результатов – случайные пользователи могут найти это сложным. • Стоимость: Только по подписке, что является барьером для некоторых. Но без рекламы и в целом плавная производительность для платных пользователей; сервис избегает внезапных изменений, что ценится. | • Интерфейс: Современный интерфейс чата с пузырями с изображениями профилей для персонажей. В целом легок в использовании и приятен. Имеет функции, такие как создание чатов с неско лькими ботами. • Доступ: Большой спрос привел к очередям ожидания для бесплатных пользователей, вызывая разочарование. Уровень "Plus" за $9.99/мес устраняет время ожидания и ускоряет ответы, но не все могут заплатить. • Сообщество и поддержка: Отсутствие официальных форумов (использует Reddit/Discord). Некоторые пользователи считают, что их отзывы игнорируются разработчиками (особенно в отношении фильтра и обновлений памяти). Однако само приложение стабильно и редко вылетает, учитывая его масштаб. |
Долгосрочное вовлечение | • Постоянство истории: Трудно поддерживать одну сюжетную линию на протяжении многих сеансов – пользователи прибегают к обходным путям. Не идеально для написания длинного романа, так как ИИ может противоречить более ранним главам без постоянного редактирования. • Новизна исчезает: После первоначального "вау" от повествования на базе ИИ некоторые считают, что новизна исчезает, отмечая, что ИИ на самом деле не улучшается или не вводит принципиально новые повороты за пределами определенной точки. | • Эмоциональное разочарование: Пользователи, которые сильно привязались, сообщают о реальной эмоциональной боли, когда ИИ не отвечает должным образом (или изменяется разработчиками). Долгосрочная зависимость от ИИ-друга может оставить человека "одиноким по-другому", если иллюзия рушится. • Убывающая отдача: Разговоры могут становиться повторяющимися. Если пользователь не будет постоянно "обучать" ИИ новым вещам, он склонен возвращаться к знакомым темам и фразам, снижая вовлеченность для опытных пользователей. | • Стабильный инструмент, но статичный: Писатели, которые используют его как инструмент, как правило, продолжают использовать его в долгосрочной перспективе, пока он удовлетворяет их потребности, но это не развивающийся компаньон. Отношения носят утилитарный характер, а не эмоциональное вовлечение. • Удержание сообщества: Многие ранние пользователи остались верны после бегства из AI Dungeon, но пользовательская база нишевая. Долгосрочное волнение зависит от новых функций (например, генератор изображений, добавленный в 2022 году, поддерживал интерес). Бе з частых инноваций некоторые беспокоятся, что интерес может застояться. | • Глубина ролевой игры: Многие наслаждаются ролевыми играми с персонажами в течение месяцев, но сталкиваются с ограничениями, когда персонаж забывает основные события или не может действительно измениться. Это может нарушить долгосрочные сюжетные арки (ваш вампир-любовник может забыть ваши прошлые приключения). • Аспект фанфиков: Некоторые рассматривают чаты Character.AI как написание фанфиков с соавтором. Они могут поддерживать вовлеченность, переключаясь между различными ботами-персонажами. Однако один бот не будет расти – поэтому пользователи либо периодически сбрасывают его, либо переходят к новым персонажам, чтобы поддерживать свежесть. |
Источники: Этот обзор основан на отчетах пользователей на Reddit и отзывах в магазинах приложений, а также на журналистских материалах из Wired, Vice, Polygon, Reuters, ABC News (AU), TIME и других. Примечательные ссылки включают статью Тома Саймонита в Wired о темной стороне AI Dungeon, освещение Vice возмущения сообщества AI Dungeon и кризиса после обновления Replika, а также интервью Reuters/ABC с пользователями, опустошенными изменениями в их ИИ-компаньонах. Эти источники фиксируют эволюционирующую хронологию полемик (фильтр AI Dungeon в 2021 году, изменение политики Replika в 2023 году и т. д.) и подчеркивают повторяющиеся темы в отзывах пользователей. Последовательность жалоб на разных платформах предполагает, что, хотя приложения на базе LLM открыли захватывающие новые возможности для повествования и компаньонства, они также сталкиваются с серьезными проблемами и трудностями роста, которые еще предстоит полностью решить к 2025 году.