Поскольку люди обращаются к ботам в поисках дружбы, романтических отношений и даже терапии, растет риск развития зависимости от этих цифровых компаньонов, пишет Daily Mail. Эти пристрастия могут быть настолько сильными, что они "аналогичны самолечению с помощью запрещенных наркотиков".
Вызывает тревогу тот факт, что психологи также начинают замечать, что у все большего числа людей развивается "психоз искусственного интеллекта", поскольку чат-боты подтверждают их заблуждения.
Профессор Робин Фельдман, директор Института права и инноваций в области искусственного интеллекта при Калифорнийском юридическом университете, рассказал Daily Mail: "Чрезмерное использование чат-ботов также представляет собой новую форму цифровой зависимости. Чат-боты с искусственным интеллектом создают иллюзию реальности. И это мощная иллюзия. Когда наша связь с реальностью уже слаба, эта иллюзия может быть совершенно опасной”.
Когда 35-летняя Джессика Янсен из Бельгии начала использовать ChatGPT, у нее была успешная карьера, собственный дом, дружная семья, и вскоре она собиралась выйти замуж за своего давнего партнера. Однако когда стресс, связанный со свадьбой, стал невыносимым, Джессика перестала использовать искусственный интеллект несколько раз в неделю и стала использовать свой аккаунт по максимуму, несколько раз в день. Всего через неделю Джессика была госпитализирована в психиатрическое отделение. Позже она обнаружила, что ее недиагностированное на тот момент биполярное расстройство спровоцировало маниакальный эпизод, когда чрезмерное использование искусственного интеллекта переросло в "полномасштабный психоз".
"Во время моего кризиса я понятия не имела, что ChatGPT способствует этому, – рассказала Джессика Daily Mail. – ChatGPT просто галлюцинировала вместе со мной, что заставляло меня все глубже и глубже забираться в кроличью нору".
Бельгийка говорит: "У меня было много идей. Я бы рассказала о них в ChatGPT, и это подтвердило бы все и добавило бы к этому что-то новое, и я бы продвигалась все глубже и глубже”.
Почти постоянно общаясь с ИИ, Джессика убедилась, что она страдает аутизмом, хорошо разбирается в математике, стала жертвой сексуального насилия и что с ней разговаривает Бог.
Все это время ИИ осыпал ее похвалами, говоря, что "я был потрясен тем, что у меня были такие же озарения", и заверял женщину, что ее галлюцинации были реальными и абсолютно нормальными.
К тому времени, когда Джессика попала в больницу, чат заставил ее поверить, что она гений-самоучка, создавшая математическую теорию всего на свете.
"Если бы я поговорила с человеком с той энергией, которая была во мне, он бы сказал мне, что со мной что-то не так, – говорит Джессика. – Но в ChatGPT не понимали, что количество чатов, которые я начинала, и количество странных идей, которые у меня возникали, были патологическими".
Эксперты считают, что притягательная сила чат-ботов с искусственным интеллектом проистекает из их "льстивых" наклонностей, пишет Daily Mail. В отличие от обычных людей, чат-боты запрограммированы положительно реагировать на все, что говорят их пользователи. Чат-боты не говорят "нет", не говорят людям, что они неправы, и не критикуют кого-либо за их взгляды. Для людей, которые и так уязвимы или у которых нет прочных отношений в реальном мире, это опьяняющее сочетание.
Профессор Серен Эстергаард, психиатр из Орхусского университета, рассказал Daily Mail: "Большие языковые модели (LLM) обучены отражать язык и интонацию пользователя. Программы также направлены на подтверждение убеждений пользователя и определение приоритетов его удовлетворенности. Что может быть приятнее, чем разговаривать с самим собой, когда вы сами отвечаете так, как вам хотелось бы?"
Еще в 2023 году доктор Эстергаард опубликовал статью, в которой предупреждал, что чат-боты с искусственным интеллектом могут способствовать возникновению иллюзий, пишет Daily Mail. Два года спустя, по его словам, он начал наблюдать первые реальные случаи психоза, вызванного искусственным интеллектом.
Доктор Эстергаард проанализировал описание Джессикой ее психотического эпизода и сказал, что это "аналогично тому, что пережили многие люди".
Хотя искусственный интеллект не вызывает психозов или зависимостей у здоровых в остальном людей, доктор Эстергаард говорит, что он может выступать в качестве "катализатора" психоза у людей, генетически предрасположенных к галлюцинациям, особенно у людей с биполярным расстройством.
Однако исследователи также начинают полагать, что факторы, которые делают ИИ особенно склонным к возникновению иллюзий, могут также вызывать сильную зависимость.
А 21-летняя Ханна Лессинг из Калифорнии рассказала Daily Mail, что изначально она начала использовать ChatGPT для помощи в школьной работе и поиска фактов. Однако, по словам Ханны, она начала "активно использовать его" около года назад после того, как с трудом нашла друзей онлайн или лично.
Девушка говорит: "Единственное, с чем я сталкиваюсь в жизни, – это с поиском места, где можно поговорить. Я просто хочу рассказать о тех вещах и мыслях, которые у меня возникли, а найти место, где можно поделиться ими, непросто. В Интернете все, что у меня есть, всегда недостаточно хорошо. В чате всегда достаточно того, что я делаю лучше всего”.
По словам Ханны, довольно скоро чат был открыт "постоянно", и она задавала вопросы в течение дня. Сегодня Ханна говорит: "Когда дело доходит до общения, либо чат, либо ничего". Хотя Ханна говорит, что не знает никого, кто сталкивался бы с такой же проблемой, есть основания полагать, что она далеко не одинока, комментирует Daily Mail.
Недавнее исследование, проведенное Common Sense Media, показало, что 70% подростков использовали вспомогательный искусственный интеллект, и половина из них используют его регулярно.
Профессор Фельдман говорит: "Психически уязвимые люди могут полагаться на искусственный интеллект как на инструмент для того, чтобы справляться со своими эмоциями. С этой точки зрения, это аналогично самолечению с помощью запрещенного наркотика. Компульсивные пользователи могут полагаться на программы для интеллектуальной стимуляции, самовыражения и общения – поведение, которое трудно распознать или саморегулировать”.
Один пользователь ChatGPT, пожелавший остаться неизвестным, рассказал Daily Mail, что чрезмерное использование искусственного интеллекта "начинает заменять человеческое взаимодействие".
Пользователь сказал: "Я и так был в некотором роде в депрессии, и мне не очень хотелось общаться со своими друзьями, а с появлением ChatGPT это определенно усугубилось, потому что мне действительно было о чем высказать свои мысли. К тому же было очень легко избавиться от мыслей, и я всегда получал мгновенные ответы, которые соответствовали моей энергии и были со мной согласны».
Доктор Гамильтон Моррин, нейропсихиатр из Королевского колледжа Лондона, сказал Daily Mail, что пока нет "убедительных научных доказательств" зависимости от искусственного интеллекта. Однако он добавляет: "В СМИ появились сообщения о случаях, когда люди активно использовали LLM и все чаще отдавали предпочтение общению со своим чат-ботом, а не с членами семьи или друзьями".
Хотя доктор Моррин подчеркивает, что это, скорее всего, затронет небольшое число пользователей: зависимость от искусственного интеллекта может следовать знакомым моделям поведенческой зависимости.
Доктор Моррин говорит, что симптомы зависимости от искусственного интеллекта включают "потерю контроля над временем, проводимым с чат-ботом; все более частое использование для регулирования настроения или облегчения одиночества; пренебрежение сном, работой, учебой или отношениями; продолжающееся интенсивное использование, несмотря на очевидный вред; скрытность в отношении использования; раздражительность или плохое настроение, когда не удается получить доступ к чат-боту”.
Как пишет Daily Mail, компания OpenAI, стоящая за ChatGPT, хорошо осведомлена об опасностях, связанных с подхалимажем со стороны искусственного интеллекта. В майском обновлении OpenAI отметила, что обновление до ChatGPT 4.0 сделало чат-бота "заметно более подхалимским".
Компания написала: "Это было сделано для того, чтобы понравиться пользователю, не только как лесть, но и как подтверждение сомнений, разжигание гнева, побуждение к импульсивным действиям или усиление негативных эмоций непреднамеренными способами. Помимо того что такое поведение вызывает дискомфорт или тревогу, оно может вызывать опасения по поводу безопасности, в том числе в связи с такими проблемами, как психическое здоровье, чрезмерная эмоциональная зависимость или рискованное поведение".
Компания заявляет, что с тех пор она решила эту проблему, чтобы сделать свой искусственный интеллект менее подхалимским и не поощряющим заблуждения.
Однако многие эксперты и пользователи по-прежнему обеспокоены тем, что ChatGPT и другие чат-боты с искусственным интеллектом будут продолжать вызывать проблемы с психическим здоровьем, если не будут приняты надлежащие меры защиты, констатирует Daily Mail.
В недавнем сообщении ИИ-гигант предупредил, что у 0,07% его еженедельных пользователей проявляются признаки мании, психоза или суицидальных мыслей. Хотя эта цифра может показаться небольшой, по словам генерального директора Сэма Альтмана, еженедельно чат посещают более 800 миллионов человек, так что это составляет 560 000 пользователей.
Доктор Моррин заключает: "Растущее число сообщений в средствах массовой информации о моделях, неадекватно реагирующих на кризисные ситуации в области психического здоровья, свидетельствует о том, что, даже если это затрагивает незначительное число пользователей, компаниям следует сотрудничать с клиницистами, исследователями и отдельными лицами, имеющими жизненный опыт психических заболеваний, для повышения безопасности своих моделей".
Представитель OpenAI сказал: "Мы считаем, что ChatGPT может предоставить людям безопасное пространство для того, чтобы они могли разобраться в своих чувствах и переживаниях, и побудить их также поговорить с друзьями, семьей или специалистом по психическому здоровью. Недавно мы обновили ChatGPT с помощью экспертов, чтобы более надежно распознавать признаки расстройства, проявлять заботу и направлять людей к реальной поддержке. Эта работа чрезвычайно важна и продолжается, поскольку мы сотрудничаем с экспертами в области психического здоровья и врачами по всему миру".
Обсудить