Как искусственный интеллект стал отягчающим обстоятельством

ИИ у нас теперь не просто модный инструмент бизнеса и развлечений, а официальный участник уголовного процесса — правда, исключительно с тёмной стороны. Минцифры при поддержке правительства продвигает второй пакет мер по борьбе с цифровым мошенничеством. И в этот раз — с прицелом на преступления, совершённые с использованием искусственного интеллекта.

Если раньше можно было получить срок за то, что украл или надул кого-то «по старинке», то теперь за тот же трюк, но с ИИ в качестве подельника, грозят штрафы до 2 миллионов рублей и тюремные «каникулы» до 15 лет. Интеллект — штука мощная, но в суде он, похоже, обернётся не оправданием, а дополнительной статьёй.

Когда нейросеть — отягчающее

Поправки в УК выглядят так, будто Минцифры решила переписать кодекс в жанре научной фантастики. Статьи 158 (кража), 159 (мошенничество), 163 (вымогательство), 272 (взломы и хакерские проделки) и 274 (нарушение эксплуатации IT-систем) обзавелись новыми формулировками, и теперь преступление с использованием ИИ — это не просто продвинуто, но и уголовно наказуемо с особой строгостью.

ИИ, по определению законопроекта, — это «комплекс технологических решений, имитирующий когнитивные функции человека». В этот самый «комплекс» входят и программы, и железо, и аналитика, и сервисы. С таким подходом под подозрение может попасть всё, начиная от чат-бота на «прикрученном» GPT до голосового помощника, позвонившего бабушке от имени «внука в беде».

Цифровые грабители и голосовые мошенники

Преступник с ИИ — это уже не аноним с капюшоном, взламывающий почту на кухне. Это хорошо продуманная схема мошенничества включающая дипфейки, подмену биометрии, фальшивые звонки от «службы безопасности банка» с голосом директора банка — всё это уже стало реальностью.

По статистике, в 2024 году зарегистрировано 485 тысяч преступлений по статьям о краже и мошенничестве. Ущерб — почти 200 миллиардов рублей. Это уже не «на карманные расходы», а полноценная криминальная экономика.

ИИ как орудие преступления: а где грань?

Всё было бы хорошо, но — классика — дьявол в деталях. Под «ИИ» можно подогнать чуть ли не любой алгоритм: от простейшего фильтра сообщений до нейросетей мирового уровня. Внятного юридического определения, что считается «искусственным интеллектом», нет. А это значит, что тот самый многострадальный Excel с макросами может однажды оказаться «инструментом преступления».

Юристы уже предостерегают: без чёткого разграничения технологий возможны злоупотребления. Следователь с фантазией и лояльным экспертом может представить любой скрипт как «особо опасный ИИ-бот», а суд — поверить.

Для IT-компаний, стартапов и вообще всех, кто хоть как-то дружит с ИИ, всё это — тревожный звоночек. Особенно для тех, кто разрабатывает продукты, связанные с обработкой данных, синтезом голоса, биометрией и автоматизированным принятием решений. Потому что теперь даже ненамеренное участие ИИ в какой-то непонятной схеме может стать поводом для претензий — если не к самой компании, то хотя бы к её клиентам или партнёрам.

Да и для пользователей последствий будет немало. Скорее всего, банки, страховые и онлайн-сервисы начнут ещё активнее внедрять фрод-мониторинг и просить «подтвердите, что вы не робот» на каждом шагу. А создатели ИИ будут либо тратить деньги на юридические фильтры, либо пойдут в тень, что грозит дефицитом софта.

Законодательство — помощь или помеха?

Пока Минцифры борется с киберпреступностью будущего, многие в индустрии опасаются, что вместо прозрачных правил получится правовой сюрреализм. Да, преступников ловить надо. Но важно, чтобы в борьбе с виртуальными злоумышленниками случайно не задавили бизнес, который строит нормальные, полезные ИИ-решения.

Как безболезненно внедрить ИИ в компанию?
Арктический интеллект. Зачем СМП свои модели ИИ
Нейросети 2025: что выбрать под реальные задачи? Рейтинг IT-World

Пока законопроект не принят окончательно, а его формулировки выглядят так, словно «искусственный интеллект» — это просто что-то страшное и обязательно плохое. Очень надеемся, что к моменту второго чтения в проекте появятся более строгие определения.

Если поправки обретут более чёткие очертания, рынок получит внятные ориентиры, где ИИ — благо, а где — уголовное дело. Но если всё останется в нынешней туманной формулировке, это станет отличным поводом для роста юридических рисков, оттока разработчиков и очередной волны цифрового правового нигилизма.

Так что следим за ситуацией и держим нейросеть подальше от подозрительных звонков. На всякий случай.

Между тем, на Госуслугах появился новый сервис для защиты от интернет-мошенников под названием «Жизненная ситуация». Он создан для всех, кто хочет обезопасить себя в сети, а также для тех, кто уже столкнулся с киберпреступниками.

Материал опубликован при поддержке сайта it-world.ru
Комментарии