15:38, 30 октября 2023

Эксперт по чат-ботам назвал реальную опасность искусственного интеллекта

Многочисленные предупреждения о конце света из-за искусственного интеллекта отвлекают внимание от реальной опасности, которую ИИ уже представляет, предупреждает эксперт.

Читать на сайте

По словам высокопоставленного представителя отрасли, участника саммита по безопасности искусственного интеллекта, сосредоточение внимания на сценариях конца света в области искусственного интеллекта отвлекает внимание, преуменьшая непосредственные риски, такие как крупномасштабное распространение дезинформации.

Как пишет The Observer, Эйдан Гомес, соавтор исследовательской работы, которая помогла создать технологию, лежащую в основе чат-ботов, сказал, что долгосрочные риски, такие как экзистенциальные угрозы человечеству со стороны ИИ, следует “изучать и преследовать”, но что они могут отвлечь политиков от решения проблемы непосредственного потенциального вреда.

“Я думаю, что с точки зрения экзистенциального риска и государственной политики это непродуктивный разговор, - утверждает Гомес. – Что касается государственной политики и того, на чем нам следует сосредоточить внимание в государственном секторе - или пытаться снизить риск для гражданского населения, – я думаю, это отвлекает от рисков, которые гораздо более ощутимы и непосредственны”.

Гомес принимает участие в двухдневном саммите, который стартует в среду, в качестве исполнительного директора Cohere, североамериканской компании, производящей инструменты искусственного интеллекта для бизнеса, включая чат-ботов. В 2017 году, в возрасте 20 лет, Гомес работал в команде исследователей Google, которые создали Transformer, ключевую технологию, лежащую в основе больших языковых моделей, которые используют инструменты искусственного интеллекта, такие как чат-боты.

Гомес сказал, что искусственный интеллект – термин, обозначающий компьютерные системы, которые могут выполнять задачи, обычно связанные с разумными существами, – уже широко используется, и именно на этих приложениях следует сосредоточить внимание саммита. Чат-боты, такие как ChatGPT, и генераторы изображений, такие как Midjourney, ошеломили общественность своей способностью создавать правдоподобный текст и изображения из простых текстовых подсказок.

“Эта технология уже используется в миллиарде пользовательских продуктов, таких как Google и другие. Это создает множество новых рисков для обсуждения, ни один из которых не является экзистенциальным, ни один из которых не является сценарием конца света, - сказал Гомес. – Мы должны сосредоточиться непосредственно на тех произведениях, которые вот-вот повлияют на людей или активно влияют на них, в отличие, возможно, от более академических и теоретических дискуссий о долгосрочном будущем”.

Гомес сказал, что дезинформация – распространение вводящей в заблуждение или неверной информации в Интернете – стала его главной заботой. “Дезинформация - это то, что для меня важнее всего, - сказал он. – Эти модели искусственного интеллекта могут создавать медиа, которые являются чрезвычайно убедительными, очень неотразимыми, практически неотличимыми от созданного человеком текста, изображений или медиа-носителей. И это то, чем нам необходимо заняться в срочном порядке. Нам нужно выяснить, как мы собираемся дать общественности возможность различать эти различные типы средств массовой информации ”.

В день открытия саммита пройдут дискуссии по целому ряду вопросов искусственного интеллекта, включая проблемы, связанные с дезинформацией, такие как срыв выборов и эрозия общественного доверия. Во второй день, в котором примет участие небольшая группа стран, экспертов и технических руководителей, созванных Риши Сунаком, будет обсуждаться, какие конкретные шаги можно предпринять для устранения рисков, связанных с искусственным интеллектом. Среди присутствующих ожидается вице-президент США Камала Харрис.

Гомес, который назвал саммит “действительно важным”, говорит, что уже сейчас “очень вероятно”, что армия ботов – программного обеспечения, выполняющего повторяющиеся задачи, такие как размещение сообщений в социальных сетях, – может распространять дезинформацию, сгенерированную искусственным интеллектом. “Если вы можете это сделать, это реальная угроза демократии и общественному обсуждению”, - предупреждает он.

В серии документов, описывающих риски ИИ на прошлой неделе, которые включали дезинформацию, генерируемую ИИ, и сбои на рынке труда, правительство Британии заявило, что не может исключить, что развитие ИИ достигнет точки, когда системы будут угрожать человечеству, отмечает The Observer.

В документе о рисках, опубликованном на днях, говорилось: “Учитывая значительную неопределенность в прогнозировании развития ИИ, нет достаточных доказательств, чтобы исключить, что высокопроизводительные системы пограничного ИИ, при неправильной настройке или неадекватном контроле, могут представлять угрозу существованию”.

В документе добавлялось, что многие эксперты считают такой риск очень низким и что это повлечет за собой реализацию ряда сценариев, включая получение продвинутой системой контроля над оружием или финансовыми рынками. Опасения по поводу экзистенциальной угрозы со стороны ИИ связаны с перспективой так называемого искусственного общего интеллекта - термина для системы ИИ, способной выполнять множество задач на человеческом или сверхчеловеческом уровне интеллекта, – который теоретически может воспроизводить себя, уклоняться от контроля человека и принимать решения, идущие вразрез с человеческими.’ интересы.

Эти опасения привели к публикации в марте открытого письма, подписанного более чем 30 000 технических специалистов и экспертов, включая Илона Маска, призывающего к шестимесячной паузе в гигантских экспериментах с искусственным интеллектом.

Двое из трех современных “крестных отцов” ИИ, Джеффри Хинтон и Йошуа Бенгио, подписали в мае еще одно заявление, предупреждающее, что к предотвращению риска вымирания от ИИ следует относиться так же серьезно, как к угрозе пандемий и ядерной войны. Однако Ян Лекун, их коллега - “крестный отец” и один из лауреатов премии ACM Turing award, которая считается Нобелевской премией в области вычислительной техники, назвал опасения, что искусственный интеллект может уничтожить человечество, “абсурдными”.

Обсудить