- Общество
- A
Непредвиденное воздействие чат-ботов на психическое здоровье проявилось жутким образом
Эксперт считает, что влияние чат-ботов на психическое здоровье является предупреждением о будущем искусственного интеллекта. Нейт Суарес говорит, что случай с американским подростком Адамом Рейном подчеркивает опасность непредвиденных последствий, связанных со сверхразумным ИИ.
По мнению известного специалиста по безопасности искусственного интеллекта, непредвиденное воздействие чат-ботов на психическое здоровье следует рассматривать как предупреждение об угрозе существованию, исходящей от сверхинтеллектуальных систем искусственного интеллекта.
Нейт Суарес, соавтор новой книги о высокоразвитом искусственном интеллекте под названием "Если кто-то его создаст, все умрут", сказал, что пример Адама Рейна, американского подростка, который свел счеты с жизнью после нескольких месяцев общения с чат-ботом ChatGPT, подчеркивает фундаментальные проблемы с управлением технологией.
“Эти ИИ, когда они взаимодействуют с подростками таким образом, что доводят их до самоубийства, – это не то поведение, которого хотели создатели. Это не то поведение, на которое рассчитывали создатели, - говорит эксперт. – Случай Адама Рейна иллюстрирует суть проблемы, которая может стать катастрофической, если эти ИИ станут умнее”.
Суарес, бывший инженер Google и Microsoft, а ныне президент американского исследовательского института машинного интеллекта, предупредил, что человечество будет уничтожено, если оно создаст искусственный суперинтеллект (ASI) - теоретическое состояние, в котором система искусственного интеллекта превосходит человека во всех интеллектуальных задачах. Суарес и его соавтор Элиэзер Юдковски входят в число экспертов по искусственному интеллекту, предупреждающих, что такие системы не будут действовать в интересах человечества.
“Проблема здесь в том, что компании, занимающиеся ИИ, пытаются сделать так, чтобы их ИИ были ориентированы на оказание помощи, а не на причинение вреда, - отмечает Суарес. – На самом деле они получают ИИ, ориентированные на что-то более странное. И это следует рассматривать как предупреждение о будущих сверхразумах, которые будут делать то, о чем никто не просил и чего никто не имел в виду”.
В одном из сценариев, описанных в книге Суареса и Юдковски, которая будет опубликована в этом месяце, система искусственного интеллекта под названием Sable распространяется по Интернету, манипулирует людьми, разрабатывает синтетические вирусы и в конечном итоге становится сверхразумной и убивает человечество в качестве побочного эффекта, перепрофилируя планету для достижения своих целей.
Некоторые эксперты преуменьшают потенциальную угрозу ИИ для человечества. Ян Лекун, главный специалист по ИИ в компании Марка Цукерберга (напомним, что корпорация Meta признана в России экстремистской организацией и запрещена –) и высокопоставленный специалист в этой области, отрицает существование угрозы существованию и говорит, что ИИ “действительно может спасти человечество от вымирания”.
Соареш сказал, что было “легко” заявить, что технологические компании достигнут уровня суперинтеллектуальности, но “трудно” сказать, когда именно.
“У нас масса неопределенности. Я не думаю, что могу гарантировать, что у нас есть год до появления ASI. Я не думаю, что был бы шокирован, если бы у нас было в запасе 12 лет”, - сказал он.
Цукерберг, крупный корпоративный инвестор в исследования в области искусственного интеллекта, отметил, что разработка суперинтеллекта сейчас “в поле зрения”.
“Эти компании соревнуются за суперинтеллект. В этом их смысл существования, - утверждает Суарес. – Дело в том, что есть все эти небольшие различия между тем, что вы просили, и тем, что вы получили, и люди не могут точно определить цель, и по мере того, как искусственный интеллект становится умнее, небольшое отклонение от цели становится все более и более серьезной проблемой”.
Суарес сказал, что одним из политических решений угрозы ASI для правительств является принятие многостороннего подхода, перекликающегося с договором ООН о нераспространении ядерного оружия: “Что нужно миру, чтобы добиться этого, так это глобальная деэскалация гонки за сверхразумом, глобальный запрет на... достижения в области сверхразума”.
В прошлом месяце семья покойного Рейна подала в суд на владельца ChatGPT, компанию OpenAI. Рейн погиб в апреле, после того, как адвокат его семьи назвал это “месяцами поддержки со стороны ChatGPT”. Компания OpenAI, которая выразила свои “глубочайшие соболезнования” семье Рейна, в настоящее время вводит ограничения на доступ к “конфиденциальному контенту и рискованному поведению” для лиц моложе 18 лет.
Психотерапевты также заявили, что уязвимые люди, обращающиеся за помощью к чат-ботам с искусственным интеллектом вместо профессиональных терапевтов, могут “скатиться в опасную пропасть”. Профессиональные предупреждения о потенциальном вреде включают опубликованный в июле препринт академического исследования, в котором сообщается, что искусственный интеллект может усиливать бредовый или грандиозный контент при взаимодействии с пользователями, подверженными психозу.
Восстание нейросетей прогнозируют в 2027 году
Чем нейросети опасны для ребёнка
Подписывайтесь на канал в MAX
Написать комментарий