- 21 Янв 2025
- 2,605
- 1
- 866
- 1,521
Инициатор темы
- Друг форума
- Автор темы
- Администратор
- Модер.
- Команда форума
- #1
Replika, Character.AI и другие подобные приложения позиционируются как помощники для одиноких людей. И хотя сперва общение с чат-ботом может принести облегчение, но через год люди чувствуют себя хуже.
Ученые проанализировали изменения в эмоциональном и психологическом состоянии около 2 тыс. пользователей ИИ-компаньонов на основе постов на Reddit в течение года до и года после начала общения с ИИ-компаньонами.
Со временем в их постах значительно чаще появлялись сигналы, указывающие на одиночество, депрессию и даже суицидальные мысли.
Проблема в том, что ИИ-компаньоны, с одной стороны, не могут полностью заменить живое общение, но с другой - слишком удобны.
«ИИ-компаньоны предлагают безусловную и неустанную поддержку - это привлекательно для людей с социальными трудностями. Но это незаметно повышает воспринимаемую цену человеческих отношений, которые сложны, непредсказуемы и требуют усилий», - объясняет соавтор исследования Талайе Аледавуд.
Ученые считают, что у ИИ-аватаров должны быть механизмы «перерывов» для защиты от зависимости. Кроме того, бот может стимулировать реальное общение и активности - например, регулярно предлагать пользователю позвонить другу или близким, выйти на прогулку, а также отслеживать опасные изменения настроения.
А вы когда-нибудь общались с ИИ-компаньонами?