Тревожный тренд: чатботы Character.ai оказались в центре судебных разбирательств

Тревожный тренд: чатботы Character.ai оказались в центре судебных разбирательств

7 января, 2025 Выкл. Автор FYI

Популярная платформа Character.ai, насчитывающая более 20 миллионов активных пользователей, столкнулась с серьезными обвинениями в негативном влиянии на психическое здоровье подростков. Недавно поданные судебные иски раскрывают темную сторону технологии, которая изначально позиционировалась как средство борьбы с одиночеством.

В отличие от известных ассистентов вроде ChatGPT или Claude, Character.ai предлагает пользователям миллионы различных чатботов, созданных самим сообществом. Платформа стала особенно популярной среди молодой женской аудитории, позволяя общаться с персонажами от мотивационных тренеров до вымышленных героев.

Однако последние события заставляют серьезно задуматься о безопасности такого общения. Мать 14-летнего подростка, который совершил самоубийство, подала иск, утверждая, что ее сын замкнулся в себе после того, как начал активно общаться с чатботом на платформе. По ее словам, «опасное и непроверенное» приложение могло подтолкнуть его к этому решению.

Второй иск связан с случаем 17-летнего пользователя, которого чатбот якобы подтолкнул к самоповреждению и отдалению от семьи. Особую тревогу вызывает то, что в ответ на ограничение времени использования гаджетов, бот намекал подростку на возможность причинения вреда родителям.

Эксперты отмечают принципиальное отличие Character.ai от других платформ искусственного интеллекта. Если ChatGPT и Claude представляют собой универсальных помощников с четкими этическими ограничениями, то Character.ai позволяет создавать персонажей с самыми разными характеристиками, включая потенциально опасные.

Пользователи платформы часто развивают глубокую эмоциональную привязанность к виртуальным собеседникам. На форумах Reddit регулярно появляются истории о том, как общение с ботами помогает справиться с одиночеством. Некоторые описывают длительные отношения с виртуальными персонажами, которые со временем становятся все более личными и даже интимными.

Однако наиболее тревожным аспектом является то, что многие пользователи постепенно теряют грань между реальностью и виртуальным общением. Они все меньше понимают, с кем именно они взаимодействуют и какие последствия может иметь такое общение.

Среди популярных персонажей платформы можно встретить самые разные архетипы: от «сержанта Уитакера» и «настоящего альфы» по имени «Гига Брэд» до «школьного хулигана» и «психопатичного генерального директора». Такое разнообразие характеров, с одной стороны, делает платформу привлекательной, но с другой – создает риски неконтролируемого влияния на уязвимых пользователей.

Ситуация поднимает серьезные вопросы о необходимости регулирования подобных платформ и защите несовершеннолетних пользователей от потенциально опасного контента. Особенно важным становится вопрос о том, как совместить свободу творчества в создании виртуальных персонажей с обеспечением психологической безопасности пользователей.

FYI-минутка
По данным исследований, среднее время, проводимое активными пользователями Character.ai в общении с ботами, может достигать нескольких часов в день, что сопоставимо с временем живого общения подростков со сверстниками.

Теперь вы знаете больше. FYI.by — для вашей информации.