Angara Security: как киберпреступники пополняют базу для создания аудио- и видеодипфейков
По данным исследования Angara Security, в 2023 году в российском онлайн-сегменте на 45% (зафиксировано около 7 000 сообщений) по сравнению с 2022 годом выросло число запросов на озвучивание «рекламы» и «фильмов» в мессенджерах, социальных сетях и на комьюнити-площадках. При этом аналитики делают вывод о том, что тренд на сбор аудиоданных сформировался именно в 2022 году, когда число подобных запросов выросло в четыре раза относительно данных 2021 года. (около 4 800 материалов vs. 1200 в 2021 году).

Большая часть объявлений размещена в Telegram, но используются и другие ресурсы, например, Habr или спам-звонки с предложением заработать на «большом проекте». Авторы таких сообщений просят указывать имена или ставят условие, что записанный аудиофайл должен быть похожим на телефонный звонок. За участие в подобных проектах предлагают гонорар от 300 до 5000 рублей. Аналитики Angara Security делают вывод о том, что в результате сбора голосовых данных кибепреступники получили возможность усовершенствовать тактики фишинговых атак на частных лиц и бизнес, для которых используются аудио- и видеофейки.

Помимо такого способа эксперты отмечают еще один источник данных — это видеоконтент из социальных сетей (например, VK), который находится в свободном доступе. «Если же аккаунты закрыты, то киберпреступники могут использовать «угон» аккаунта или более простой с технической точки зрения способ – социальную инженерию, чтобы завоевать доверие. Поэтому получение исходных данных для видео- и аудиофейков намного доступнее, чем кажется», − комментирует Алина Андрух, специалист по реагированию на инциденты Angara Security.

С начала 2024 года в России стали фиксироваться случаи мошеннических схем, в которых применяются в совокупности техники социальной инженерии и deepfake. Цель такой атаки заключается в том, чтобы получить денежные средства от сотрудников компании, которые получают сообщения от фейкового аккаунта руководителя в Telegram.

Например, в январе в адрес одной из компаний применялась подобная техника. Сначала были украдены несколько аккаунтов пользователей Telegram, затем были получены аудиофайлы (голосовые сообщения). Эти данные использовались для генерации поддельных записей, в которых мошенники от имени владельца аккаунта вымогали денежные средства у пользователей, которые состояли вместе с ним в различных чатах и рабочих группах.

Еще один вариант использования дипфейков – это видеоконференц-связь. Например, международный кейс, когда преступники использовали технологии аудио-и видеофейка, чтобы от имени «доверенных» лиц убедить сотрудника перевести крупную сумму денег. «Мы ожидаем, что тренд на такого рода атаки будет только набирать обороты с развитием технологий ИИ. Поэтому крайне важно сформировать методы и способы распознавания фейковых материалов и решать вопрос на уровне законодательства, чтобы снизить риски для кибербезопасности обычных пользователей цифровых сервисов и бизнеса», − продолжает Алина Андрух.

В России был сделан важный шаг относительно регулирования метода deepfake-материалов: правительство России поручило разработать способы регулирования применения такой технологии до 19 марта 2024 года . В 2023 году уже был предложен способ разграничения реального контента и созданного с помощью ИИ путем помещения на объект специального штампа-отметки. Стоит отметить, что такой способ является достаточно трудным для реализации и контроля.

Для выявления следов работы ИИ, в том числе аудио- и видеофейков, разрабатываются новые инструменты, например, российский проект «Зефир», представленный летом прошлого года, способный обнаруживать искусственно созданные (аудио-, видеофейки) с высокой вероятностью. Создание новых инструментов и наработок позволит в ближайшем будущем упростить выявление и распространение таких материалов.

Рекомендации от Angara Security
Проверяйте личность человека, задавая дополнительные вопросы:
Если вы получили аудио-, видеозвонок или сообщение с подозрительным содержанием, проверьте личность собеседника, задавая ему уточняющие вопросы с деталями, которые вряд ли могут быть известны кибермошенникам, или просто свяжитесь лично по e-mail или по номеру из базы контактов на SIM-карте телефона.

Обращайте внимание на речевые и внешние особенности:

Обращайте внимание на руки вашего собеседника на видео, так как чаще всего именно они «страдают» при генерации контента: добавляются, удаляются либо склеиваются пальцы. Стоит отметить, что атакующие учитывают этот момент, чтобы избежать распознавания видеофейка, поэтому при общении выбирают портретную зону.

Стоит обращать внимание на мимику и периодичность изменения выражения лица. Чаще всего сгенерированная модель поддерживает одну скорость смены позиций положения головы, частоту моргания либо повтор одних и тех же движений в определенный промежуток времени.

Стоит также проверить особенности лица. Например, волосы могут быть позаимствованы с «подложного» видео и не соответствовать реальности, либо смазаны в результате наложения одного лица на другое. Если вы знакомы с собеседником в реальной жизни, сопоставьте родинки, шрамы, татуировки, если они свойственны вашему контакту.

Стоит также обращать внимание на голос (насколько он реалистичный), сопоставлять движения губ и звуковой дорожки. Несмотря на развитие технологии, данный пункт остается одним из ключевых в распознавании фейковых материалов.

Программное решение
Компании для возможного предотвращения манипуляций с видеоматериалами публичных лиц, например, с руководителями компаний, могут использовать как коммерческие предложения по распознаванию дипфейков, так и основанные на открытом исходном коде. Например, технологии, которые позволяют наложить невидимый человеческому глазу фильтр на видео в открытом доступе (например, записи выступлений топ-менеджеров, которыми компании делятся в открытых источниках). Этот фильтр искажает итоговый вариант при попытке генерации фейкового контента.

Цифровая грамотность сотрудников
Необходимы регулярные информационные кампании и обучение методам, как выявлять фейки, для распространения которых киберпреступники используют мессенджеры, корпоративную почту и другие каналы коммуникации.

01.03.2024

Другие публикации

Angara Security запустила платформу предиктивной аналитики для атрибуции киберугроз по отраслевой принадлежности компаний

Эксперты Центра киберустойчивости Angara SOC на основе данных международной классификации MITRE ATT&CK®, базы данных угроз безопасности ФСТЭК и собственной практики расследования и реагирования на инциденты ИБ разработали платформу для автоматического определения.

актуально

24.05.2024

Angara Security и облачный провайдер «НУБЕС» (Nubes) стали партнерами в сфере киберкриминалистики

Москва, 15 мая 2024 г. — Компании «НУБЕС» и Angara Security подписали соглашение о сотрудничестве в области расследований киберпреступлений.

актуально

15.05.2024

Angara Security: верифицированные электронные кошельки OZON стали использовать для нелегальных p2p-операций

Аналитики Angara Security выяснили, что после отзыва лицензии у QIWI Банка в три раза выросло число сообщений о покупке и продаже верифицированных электронных кошельков OZON для p2p-переводов в 2024 году.

актуально

14.05.2024

Angara Security: в Рунете растет число «двойников» онлайн-касс культурного досуга

Эксперты Angara Security зафиксировали рост числа фишинговых сайтов, которые содержат в доменном имени слова kassa.

актуально

13.05.2024

Ритейл под ударом: анализ угроз от экспертов Angara Security

В 2023 году ритейл и e-commerce вошли в ТОП-3 самых атакуемых отраслей российской экономики.

10.04.2024

Остались вопросы?

Понравилась новость?

Подпишитесь на уведомления о новых материалах