В Госдуме рассказали о признаках подделки видео

Депутат Немкин: дипфейки можно выявить по движению глаз, цвету кожи и волос

Видеосообщение, созданное с помощью дипфейков, можно выявить по движению глаз человека на видео, цвету кожи и волос, контуру овала лица – зачастую они могут быть размытыми, странными, в случае с аудиосообщениями нужно оценивать четкость и интонацию речи, сообщил член комитета ГД по информполитике Антон Немкин.

"Качество дипфейков за последние несколько лет значительно выросло, однако все равно есть ряд признаков, по которым можно выявить "подделку". Обращайте внимание на движение глаз, цвет кожи и волос, контур овала лица – зачастую они могут быть размытыми, странными. В случае голосовых подделок стоит всегда внимательно оценивать интонации и четкость речи. Ну и, конечно, всегда в целом критически относиться к любым просьбам, которые поступают вам в сети, если это касается ваших личных данных или финансовых средств", - сказал он .

Депутат уточнил, что даже если гражданин уже точно верит полученному сообщению, не будет лишним попытаться выйти на контакт с человеком, от имени которого с человеком связались.

Депутат также отметил, что есть несколько причин, почему у мошенников сегодня получается успешно создавать дипфейки. Одна из причин - доступность технологий.

"Современные технологии становятся все более доступными и простыми в использовании. Существуют открытые программные библиотеки и инструменты, которые позволяют создавать дипфейки с минимальными знаниями программирования. Это снижает порог вхождения для потенциальных мошенников, позволяя им быстро создавать убедительные фальшивые ролики и аудиозаписи", - подчеркнул Немкин.

Также депутат рассказал, что сети и платформы видеообмена позволяют быстро распространять контент, включая дипфейки. Это означает, что фальшивые видео или изображения могут быстро стать вирусными и дойти до широкой аудитории, прежде чем они будут опровергнуты или идентифицированы как фальшивые, сказал Немкин.

"Некоторые дипфейки могут быть настолько реалистичными, что выявить подделку бывает сложно даже экспертам. Технологии глубокого обучения позволяют создавать реалистичные синтетические изображения и видео, которые могут обмануть даже опытных пользователей", - подчеркнул Немкин.

Материал опубликован при поддержке сайта ria.ru
Комментарии

    Актуальные новости по теме "Array"