«Власть переходит к ИИ»: названы ошибки при взаимодействии с нейросетью

Ошибки, или галлюцинации нейросетей — явление, при котором искусственный интеллект выдает вымышленную или нелогичную информацию. Эта проблема сейчас активно обсуждаются в обществе. Для некоторых такие ошибки становятся веским аргументом, чтобы вовсе отказаться от использования LLM в работе. Безусловно, на качество ответов ИИ влияет та информация, на которой он обучался, но есть в ложных ответах ChatGPT, DeepSick и других языковых моделей и часть вины пользователей.

– Екатерина, так почему все-таки нейросети стали ошибаться?

– Начну с небольшой преамбулы. Технологии искусственного интеллекта развиваются давно, начиная с 1970-х годов. Это большие информационные системы, которые нужны для автоматизации разнообразных процессов – допустим, промышленных, которые для человека могут быть опасны, к примеру, из-за агрессивных сред, высокой температуры и так далее. При помощи ИИ очень четко работают прокатные станы, ездят лифты, и мы воспринимаем это как само собой разумеющееся. Но как только часть этих систем стала разговаривать с нами на нашем, естественном языке, мы их тут же очеловечили и стали предъявлять к ним претензии, подозревая в заговоре, обвиняя в обманах и ошибках. И даже не задумываемся, что те самые ошибки, которые называют галлюцинациями искусственного интеллекта, связаны с тем, что именно пользователь не совсем верно формирует задания, промты для него.

Справка. Промт (от англ. prompt — «подсказка») — это запрос, команда или набор инструкций, которые пользователь передает нейросети или другой программе с ИИ для выполнения определенной задачи.

К примеру, человек пишет в качестве инструкции буквально 2–3 слова, максимум одно предложение, в диалоговое окно большой языковой модели и думает, что вот сейчас он получит ответ... Ну, например, «расскажи мне историю Первой мировой войны». Какую именно? В каких частях? Со стороны какой страны-участника? То есть для того, чтобы большая языковая модель была более точной и ничего «не додумывала от себя», ей нужно точно создавать контекст. Чем больше и качественнее задан контекст, тем лучше. Например, когда я задаю свой гуманитарный запрос в диалоговое окно, у меня там может быть около 3–4 тысяч знаков. Затем я могу еще попросить нейросеть представить некую структуру работы, того, как я хочу получить этот результат. В таком случае ответы оказываются более точными.

– Можете пояснить, как запросить эту структуру, на конкретном примере?

– Большие языковые модели усовершенствовались, им можно задавать контекст, а дальше на основе контекста текстом можно произвести следующий фокус – написать в окне: «Пожалуйста, теперь напиши мне промт так, чтобы ты мог наиболее точно и конкретно выполнить эту задачу». И большая языковая модель может сама для себя написать промт. Похожие лайфхаки есть для работы с изображениями, с видео. И на этом работа с промтом не заканчивается. Если пользователь ИИ сам является экспертом, он может потом этот промт, созданный моделью для себя, проверить и добавить какие-то уточнения для того, чтобы получить точный продукт.

–​ Ах, вот как можно?! Значит, и курсы по профессиональному созданию промтов для ИИ не нужны?

– По-моему, это совершенно лишнее – то же, что и инфоцыганство или псевдопсихологи, которые обещают «100-процентный успех». На самом же деле писать промт – не слишком сложная задача, но, как любая технология, не до конца проясненная, она становится полем для разнообразных мошенничеств, в том числе и тех, которые связаны с якобы образовательным продуктом. Нас прекрасно учили в школе учителя русского языка и литературы естественному языку – помните, как они говорили: «Что хотел сказать автор? Напиши это в эссе». Вот теперь автор – это вы. То есть вы должны знать, что хотите сказать, и пишете максимально подробное эссе с этими вопросами. Если вы правильно справитесь с заданием, то однозначно получите «пять» в виде хорошего ответа от LLM.

Надо ли учить чиновников

– По данным Российского союза промышленников и предпринимателей, сегодня уже не менее 70% промышленных предприятий России внедряют искусственный интеллект. Он также внедряется в работу судов и других государственных органов. Как думаете, готова ли к этому большая армия наших чиновников?

– Сложный вопрос, потому что он включает в себя прежде всего человеческий фактор и вопрос обучения. Как правило, при внедрении каких-то новых технологий в любом офисе есть те, кто специально игнорирует новшества, другие просто ошибаются на первых порах... И лишь со временем почти все сотрудники признают их удобными и начинают применять в своей рутине.

Теперь о деталях – к примеру, об использовании ИИ в судах. Представьте себе, какая у нас большая законодательная база нормативных федеральных актов, областных и муниципальных документов! Каждый закон может содержать множество страниц текста. И нужно в каждом из них разметить не просто абзацы, а смысловые поля для того, чтобы машина потом при обращении к тем или иным смыслам могла это все достать. То есть это достаточно сложная, трудоемкая и финансово емкая задача.

Вопрос возникает в том, кто за это будет платить? Ведь если разметить плохо, тогда ИИ станет плохо отвечать, и будет то, что называют галлюцинациями: нейросеть ответила неправильно или сослалась не на ту статистику.

– Предположим, деньги нашлись...

– Рядом с каждым разработчиком ИИ-помощника для судов должен сидеть эксперт – условно, судья, чтобы показывать, где нужно ставить абзац, точечку, где нужно ставить разметку...

–​ Казнить нельзя помиловать...

– Да, что-то вроде этого. И если это получится, то мы точно избавим госорганы от рутины – аналитических справок, отчетов, что принесло бы всем нам, не только чиновникам, значительную пользу.

Мягкая мягкая сила

– Как вы относитесь к тому, что албанское правительство создало ИИ-министра, отвечающего за закупки?

– Если там действительно стоит тонкая настройка, хорошие критерии, нормальная база данных, то почему бы и нет, это вполне возможно. Хорошая замена человека, который то устал, то у него болит голова, то он взял взятку... На мой взгляд, есть только один минус у этого решения: зря они придали математической модели человеческое лицо, стали обсуждать с ней проблемы страны в человеческом ключе.

–​ А меня волнует вопрос 100-процентной честности и прозрачности виртуального министерства – что является залогом этого?

– Вы очень верно подняли вопрос. Дело в том, что это на самом деле глобальная проблема, которая касается не только финансов или управления, но и прочего – это проблема технологического и мировоззренческого суверенитета. Потому что от компании-разработчика действительно зависит то, каким образом будут расставлены метки и на какие триггеры будет отзываться модель, а на какие – нет. Иначе говоря, от госорганов власть может перейти к платформе, что, собственно, сейчас потихоньку и происходит.

Это такая новая мягкая сила, soft power, – я бы сказала, мягчайшая сила, через которую можно продвигать любые решения. На уровне закупок это просто интересы каких-нибудь корпораций: например, если та или иная фирма будет часто выигрывать тендеры, то к «неподкупным» модельным разработчикам уже появятся вопросы. Но бывает в ИИ-моделях еще и мировоззренческая разметка, которую не всегда замечают пользователи. Это то, что касается больше вопросов гуманитаристики в области права, в области социальной сферы.

Буквально недавно прошла новость о том, что Соединенные Штаты Америки выделили деньги на разработку каких-то систем искусственного интеллекта для разметки текстов в Израиле, чтобы там молодежь удобно пользовалась ими. Но выяснилось, что все не так просто. Дело в том, что от разметки зависит впитывание молодежью смыслов, которые там размечены в определенном порядке. И когда человек задает вопрос ИИ, ему придет та, которую запрограммируют в поиске, в триггерах этого поиска.

Для российской молодежи тоже делают такие разметки?

– Да, они возможны. Русскоязычное юношество не замечает в тексте, сгенерированном англосаксонской большой моделью, некие тонкости... А в итоге мировоззренческий суверенитет – технологический, экономический, финансовый – оказывается под угрозой. Поэтому в госуправлении нужно внедрять только свои системы.

Не зря наш президент поручил правительству принять стратегию развития технологии искусственного интеллекта, и в рамках этой стратегии ведется подготовка кадров.

Доверенный искусственный интеллект

–​ Сейчас все больше говорят о создании доверенного искусственного интеллекта в России и даже на уровне стран БРИКС. Как этого достичь в отдельно взятой стране и сообществе стран?

– Проблема доверия на самом деле лежит в правильно собранных и размеченных данных, в эксперте, который обучал ИИ, в проведении регулярных стресс-тестов и проверок. То есть если это все сделал человек, который несет полную ответственность, то такой искусственный интеллект можно было бы назвать «доверенным» для отдельно взятой страны. А что касается стран БРИКС... У меня нет однозначного мнения насчет общего ИИ для всего этого сообщества. Тут я как раз пессимист и считаю, что лучше быть на страже в нашем достаточно непростом мире. Вот у нас есть железнодорожная колея в России, она немного не совпадает с европейской. Зачем это было сделано? Все знают: в целях безопасности, для того чтобы если произойдет какое-нибудь там военное вмешательство, не так было удобно врагу заезжать, завозить какую-то технику и так далее. То же самое касается, на мой взгляд, и безопасности разнообразных информационных систем. Недаром есть такая специальность у программистов – инфобезопасность (это, кстати, на сегодняшний день одна из самых востребованных наших специальностей). Все видят, что происходит в связи с конфликтами, как часто подвергаются атакам информационные системы аэропортов... И на этом фоне мы говорим: «Ой, давайте мы будем создавать общий доверенный искусственный интеллект!» На мой взгляд, торопиться с этим не стоит. В рамках государственной безопасности можно поделиться какими-то вещами, какими-то данными, но делать одинаковые «входы» и «шлюзы» для всех не стоит, тем более что сегодня это друзья, а завтра могут ими не оказаться.

Материал опубликован при поддержке сайта mk.ru
Комментарии

    Актуальные новости по теме "Array"