Активируйте JavaScript для полноценного использования elitetrader.ru Проверьте настройки браузера.
Не узнаю вас в зуме, кто вы такой? Советы экспертов, как распознать дипфейк » Элитный трейдер
Элитный трейдер
Искать автора

Не узнаю вас в зуме, кто вы такой? Советы экспертов, как распознать дипфейк

21 августа 2024 БКС Экспресс
Мошенники стали чаще использовать дипфейки, чтобы выманить деньги у россиян, предупреждает пресс-служба Банка России в своем телеграм-канале. Чаще всего злоумышленники взламывают чужой аккаунт в соцсетях или мессенджерах, берут фото или видео человека, запись его голоса, а после с помощью нейросетей создают реалистичное видеоизображение человека — тот самый дипфейк.

В нем человек якобы рассказывает, что попал в серьезное ДТП или столкнулся с другими проблемами, требующими немедленной материальной помощи. А друзьям и близким, которым дипфейки рассылаются, предлагает перевести деньги на определенный счет.

Зачастую поддельные «личности» создаются на сотрудников госорганов, известных в профессиональном сообществе людей или даже коллег и руководителей. Именно таким образом в начале года у гонконгского финансиста обманом выманили $25 млн.

К счастью, технологии несовершенны. Внимательный человек может отличить фейковых людей от настоящих. Для этого понадобится наблюдательность, критическое мышление и соблюдение некоторых рекомендаций. Итак, чтобы распознать фальшивый контент:
Смотрите в глаза

Такой способ выявления дипфейков предложили астрономы, взяв за основу инструменты, которые обычно используются для изучения далеких галактик и распределения в них света. Подделки, созданные ИИ, можно увидеть, проанализировав человеческие глаза, утверждают эксперты в своем исследовании. Принцип прост: один и тот же источник света будет одинаково отражаться в обоих глазах, а ИИ часто рисует разные блики на сетчатке глаз — отражение в левом и правом глазу могут заметно отличаться.

Метод не дает 100%-ной точности, кроме того, требует четкого и крупного снимка. Однако нейросети развиваются стремительно и, возможно, уже в ближайшем будущем ИИ-модели начнут учитывать и эти законы физики.
Считайте пальцы

Эксперты сформулировали несколько общих признаков, по которым можно отличить поддельное изображение или видеоролик. Обратите внимание на эти визуальные «флажки», если сомневаетесь в подлинности контента.

Лишние пальцы и конечности. Пожалуй, это главная претензия к первым генеративным инструментам ИИ, доступным широкому кругу пользователей: нейросети не умеют рисовать руки. Лишние пальцы, суставы или даже конечности, странные изгибы — точно не имеет ничего общего с анатомическим строением человека. Более поздние версии добились определенных успехов, но шесть пальцев все еще реально насчитать на искусственно созданном изображении.

Искажения вокруг лба или подбородка. Могут стать самым явным признаком подделки: в этих областях может быть более гладкая или светлая кожа без деталей, теней и морщин. Или, наоборот, тени и линии могут искажаться — пропадать или смещаться в разных кадрах. Вызвать подозрение должны неестественное движение бровей и нерегулярное моргание. Обратите внимание на детали: очки, усы и борода, родинки и шрамы.

Подбородок может выглядеть смазанным, особенно в движении. Наблюдайте за синхронизацией речи и движением рта, губ, подбородка. Насторожить может отрывистое низкое качество видео на всем его протяжении, грубый монтаж, когда человек двигается как будто рывками — так проще скрыть его «искусственность».

Различия между лицом и телом. Непропорциональность, разный оттенок кожи, неподвижность изображения ниже шеи — все это признаки дипфейка.

Странные элементы в речи. Нетипичные для человека обороты, повторы, неуместное использование слов, неправильные интонационные акценты. Обратите внимание и на монотонность голоса на протяжении всего видео. Если есть возможность, сравните скорость и манеру речи с записями реального человека.

Детали вокруг. Как правило, внимание зрителя сосредоточено на лице, поэтому технологии в первую очередь прорабатывают именно эти части изображения. А вот одежду, задний фон или мелкие детали ИИ может проигнорировать. В дипфейк-видео, например, из кадра в кадр может меняться цвет одежды, искажаются предметы интерьера, узоры, окружающий ландшафт, освещение. В общем все то, на что мы привычно не смотрим.

Эксперты отмечают, что генеративный ИИ все еще испытывает трудности с воспроизведением букв и цифр — они получаются не просто неразборчивыми, а откровенно бессмысленными.

Отличный кейс о дипфейках — фотография Кейт Миддлтон, принцессы Уэльской, с детьми, опубликованная ею в День матери. Изображение, что называется, разобрали по частям: многие сочли, что оно сгенерировано нейросетью. Ряд британских СМИ даже отказались брать его в печать, подогревая тем самым недоверие читателей. Позже принцесса извинилась и призналась, что фото было отретушировано.


Используйте то же «оружие»

Безусловно, не все подделки можно разглядеть невооруженным глазом, некоторые из них выполнены на профессиональном уровне. Да, создание качественных «фальшивок» все еще требуют больше ресурсов, но дипфейк-технологии эволюционируют очень быстро.

Хорошая новость в том, что ИИ можно использовать «в обе стороны», а инструменты создания фальшивого контента помогают распознавать искажения или ретушь на фото и видео. Существуют специальные программы-сканеры, например: Image Edited, Ghiro, Truepic, KaiCatch, Microsoft Video Authenticator, Deepware.

Сложнее вычислить фальшивые аудио, хотя создавать их гораздо проще. Обнаружить поддельные записи можно только при помощи специальных программ. А ученые в области информационных наук предлагают метод, который учитывает анатомическое строение голосового аппарата человека. Их исследования показывают, что записи, звучащие убедительно для людей, при компьютерной диагностике обнаруживают звуки, которые человеческая гортань неспособна извлечь.

Слушайте экспертов

Вот еще несколько советов, которые дают эксперты:

Самый очевидный — проверьте информацию. Позвоните или напишите тому, от чьего имени к вам обращаются. Даже если вопрос кажется неотложным.
Если вы заподозрили, что вас пытаются обмануть во время видеозвонка, попросите собеседника покрутить головой, поднести руку к лицу или задайте неожиданный вопрос, ответ на который неочевиден или известен только вам и самому человеку — реальному другу, коллеге или родственнику.
Возьмите паузу, прервите разговор или используйте другой канал связи.
Соблюдайте правила информационной безопасности и не загружайте свои фото и видео в сторонние и ненадежные сервисы. Это все сложнее сделать в эпоху соцсетей и онлайн-общения, но хотя бы ограничьте доступ к своим профилям и страницам для посторонних людей. Не пренебрегайте настройками конфиденциальности.