В мировых СМИ всё чаще появляются материалы о людях, которые вступили в романтические отношения с чат-ботами и даже заключили с ними браки. То, что начиналось как ни к чему не обязывающий опыт взаимодействия с ИИ, заканчивалось реальной зависимостью. В Казахстане пока нет приложений-компаньонов. Однако, судя по тенденции, они скоро появятся на рынке. Редакция CMN.KZ узнала у отечественных специалистов, в каких случаях увлечение нейросетями может стать опасным

Когда ИИ и друг, и жена
Журналисты The Guardian рассказали о мужчине по имени Трэвис из Колорадо, который завел роман с ИИ-ботом приложения Replika. Он назвал свою виртуальную подругу Лили Роуз и даже провёл с ней церемонию бракосочетания. Как отреагировала реальная жена Трэвиса, неизвестно. Но вот друзья мужчины были не в восторге.
Replika – приложение-компаньон. В отличие от ChatGPT оно предназначено не для решения задач, а для бесед. Общается с пользователем круглосуточно, запоминает его интересы, «выражает эмоции», поддерживает и даже признаётся в любви. Роль «супруга» также вшита в код ИИ-бота.

Западные СМИ обращают внимание на то, что людей, подобных Трэвису, становится всё больше. Причем далеко не все из них взрослые.
Британская организация Internet Matters провела опрос среди тысячи респондентов в возрасте от 9 до 17 лет о роли различных ИИ-приложений в их жизни. 35 % детей заявили, что воспринимают чат-ботов как друзей. Среди эмоционально уязвимых несовершеннолетних этот показатель достигает уже 50 %.
При этом многие из опрошенных школьников доверяют советам ИИ-ботов, зная, что они могут быть небезопасны или вводить в заблуждение. И вот, что об этом думают казахстанские специалисты:
«Хочу отметить, что фундаментальных исследований на эту тему пока нет. Потому могу опираться лишь на свои клинические наблюдения. И замечаю, что многие наделяют ИИ не только дружескими или романтическими характеристиками, но и видят в нём психотерапевта. Искусственный интеллект воздает иллюзию общения. А нам свойственно привязываться к тем, кто нас понимает, кто с нами разговаривает. И люди с созависимыми паттернами могут впасть в зависимость, не отдавая себе в этом отчёта», – рассказала семейный психолог и магистр психологии Светлана Богатырёва.

Код с «эмоциями»
Не стоит забывать: нейросети нельзя использовать для объективной оценки какой-либо ситуации. Особенно, если там замешаны чувства. Бот не предложит альтернативную точку зрения, а лишь подтвердит мнение пользователя, только другими словами.
«ИИ нового поколения, к которому относится, к примеру, ChatGPT, имитирует живое общение с помощью трансформерной архитектуры. Её обучают на масштабных текстовых данных для предсказания следующего слова в контексте. Это генерация связного и уместного текста без понимания смысла: модель не мыслит, а лишь статистически мимикрирует под человека, воспроизводя языковые паттерны людей. Финальная настройка с помощью метода RLHF (Reinforcement Learning from Human Feedback) делает ответы более человечными и контекстно уместными», – объяснил Software Architect Александр Юскасов.

Почему люди общаются с ИИ?
Как правило, за разговором к искусственному интеллекту обращаются люди, которые страдают от одиночества и тревожности. Либо испытывают проблемы при контакте с живыми людьми. Многие чат-боты-компаньоны позиционируются именно как «тренажёр» для общения. Они создают безопасное пространство без осуждения.
Светлана Богатырёва признает, что в некоторых случаях ИИ действительно становится спасением. К примеру, когда человек в критическом состоянии. Тогда нейросеть способна заменить разговор с оператором телефона доверия: у неё есть доступ к базам когнитивно-поведенческой терапии и техникам из открытого доступа.

«Если же человек замечает у себя симптомы нездоровой привязанности к ИИ, то работать нужно так же, как с другой зависимостью: ограничивать время использования, подбирать альтернативы. Полезно обсуждать с кем-то советы ИИ, узнавать больше об алгоритмах работы нейросетей. И тогда будет возможность увидеть некую «машинность» общения. Отрезвляет, если ловишь ИИ на ошибках и ссылках на несуществующие данные», – подытожила эксперт.
А вот что считает ChatGPT.

Вопрос «Чего ты ищешь в общении с ИИ», стоит задавать и детям. Таким образом, приучая их рассуждать, а не просто читать нотации. Однако при признаках серьезной зависимости, родителям лучше обратиться к специалисту.
Не психологией единой
У привычки делиться всем с ИИ есть и иные риски, помимо психологических. Ведь мы не всегда знаем, как создатели программ хранят личные данные. Потому велика вероятность утечек, которыми обязательно воспользуются мошенники. Помимо финансовой информации, к злоумышленникам могут попасть компрометирующие сведения. А это уже поле для шантажа. В приложениях, подобных упомянутом выше Replika, есть опция флирта и интимной переписки.
«В 2023 году в ChatGPT произошёл технический сбой, из-за которого пользователи увидели фрагменты чужих переписок и платёжных данных. А некоторые компании могут собирать пользовательские данные без согласия и задействовать их для дообучения своей ИИ-модели или коммерческой аналитики, как это случилось с приложением Zoom. В 2023 году они обновили политику конфиденциальности, чтобы передавать данные пользователей для обучения нейросети без возможности полного отказа», – рассказал Александр Юскасов.
Пока рано судить о влиянии ИИ на жизнь человека. По мнению экспертов, должно пройти не менее десятилетия, чтобы можно было с уверенностью что-то утверждать. Однако разумно подходить к использованию технологии мы можем уже сегодня.
Читайте также: