Angara Security: как киберпреступники пополняют базу для создания аудио- и видеодипфейков
По данным исследования Angara Security, в 2023 году в российском онлайн-сегменте на 45% (зафиксировано около 7 000 сообщений) по сравнению с 2022 годом выросло число запросов на озвучивание «рекламы» и «фильмов» в мессенджерах, социальных сетях и на комьюнити-площадках. При этом аналитики делают вывод о том, что тренд на сбор аудиоданных сформировался именно в 2022 году, когда число подобных запросов выросло в четыре раза относительно данных 2021 года. (около 4 800 материалов vs. 1200 в 2021 году).

Большая часть объявлений размещена в Telegram, но используются и другие ресурсы, например, Habr или спам-звонки с предложением заработать на «большом проекте». Авторы таких сообщений просят указывать имена или ставят условие, что записанный аудиофайл должен быть похожим на телефонный звонок. За участие в подобных проектах предлагают гонорар от 300 до 5000 рублей. Аналитики Angara Security делают вывод о том, что в результате сбора голосовых данных кибепреступники получили возможность усовершенствовать тактики фишинговых атак на частных лиц и бизнес, для которых используются аудио- и видеофейки.

Помимо такого способа эксперты отмечают еще один источник данных — это видеоконтент из социальных сетей (например, VK), который находится в свободном доступе. «Если же аккаунты закрыты, то киберпреступники могут использовать «угон» аккаунта или более простой с технической точки зрения способ – социальную инженерию, чтобы завоевать доверие. Поэтому получение исходных данных для видео- и аудиофейков намного доступнее, чем кажется», − комментирует Алина Андрух, специалист по реагированию на инциденты Angara Security.

С начала 2024 года в России стали фиксироваться случаи мошеннических схем, в которых применяются в совокупности техники социальной инженерии и deepfake. Цель такой атаки заключается в том, чтобы получить денежные средства от сотрудников компании, которые получают сообщения от фейкового аккаунта руководителя в Telegram.

Например, в январе в адрес одной из компаний применялась подобная техника. Сначала были украдены несколько аккаунтов пользователей Telegram, затем были получены аудиофайлы (голосовые сообщения). Эти данные использовались для генерации поддельных записей, в которых мошенники от имени владельца аккаунта вымогали денежные средства у пользователей, которые состояли вместе с ним в различных чатах и рабочих группах.

Еще один вариант использования дипфейков – это видеоконференц-связь. Например, международный кейс, когда преступники использовали технологии аудио-и видеофейка, чтобы от имени «доверенных» лиц убедить сотрудника перевести крупную сумму денег. «Мы ожидаем, что тренд на такого рода атаки будет только набирать обороты с развитием технологий ИИ. Поэтому крайне важно сформировать методы и способы распознавания фейковых материалов и решать вопрос на уровне законодательства, чтобы снизить риски для кибербезопасности обычных пользователей цифровых сервисов и бизнеса», − продолжает Алина Андрух.

В России был сделан важный шаг относительно регулирования метода deepfake-материалов: правительство России поручило разработать способы регулирования применения такой технологии до 19 марта 2024 года . В 2023 году уже был предложен способ разграничения реального контента и созданного с помощью ИИ путем помещения на объект специального штампа-отметки. Стоит отметить, что такой способ является достаточно трудным для реализации и контроля.

Для выявления следов работы ИИ, в том числе аудио- и видеофейков, разрабатываются новые инструменты, например, российский проект «Зефир», представленный летом прошлого года, способный обнаруживать искусственно созданные (аудио-, видеофейки) с высокой вероятностью. Создание новых инструментов и наработок позволит в ближайшем будущем упростить выявление и распространение таких материалов.

Рекомендации от Angara Security
Проверяйте личность человека, задавая дополнительные вопросы:
Если вы получили аудио-, видеозвонок или сообщение с подозрительным содержанием, проверьте личность собеседника, задавая ему уточняющие вопросы с деталями, которые вряд ли могут быть известны кибермошенникам, или просто свяжитесь лично по e-mail или по номеру из базы контактов на SIM-карте телефона.

Обращайте внимание на речевые и внешние особенности:

Обращайте внимание на руки вашего собеседника на видео, так как чаще всего именно они «страдают» при генерации контента: добавляются, удаляются либо склеиваются пальцы. Стоит отметить, что атакующие учитывают этот момент, чтобы избежать распознавания видеофейка, поэтому при общении выбирают портретную зону.

Стоит обращать внимание на мимику и периодичность изменения выражения лица. Чаще всего сгенерированная модель поддерживает одну скорость смены позиций положения головы, частоту моргания либо повтор одних и тех же движений в определенный промежуток времени.

Стоит также проверить особенности лица. Например, волосы могут быть позаимствованы с «подложного» видео и не соответствовать реальности, либо смазаны в результате наложения одного лица на другое. Если вы знакомы с собеседником в реальной жизни, сопоставьте родинки, шрамы, татуировки, если они свойственны вашему контакту.

Стоит также обращать внимание на голос (насколько он реалистичный), сопоставлять движения губ и звуковой дорожки. Несмотря на развитие технологии, данный пункт остается одним из ключевых в распознавании фейковых материалов.

Программное решение
Компании для возможного предотвращения манипуляций с видеоматериалами публичных лиц, например, с руководителями компаний, могут использовать как коммерческие предложения по распознаванию дипфейков, так и основанные на открытом исходном коде. Например, технологии, которые позволяют наложить невидимый человеческому глазу фильтр на видео в открытом доступе (например, записи выступлений топ-менеджеров, которыми компании делятся в открытых источниках). Этот фильтр искажает итоговый вариант при попытке генерации фейкового контента.

Цифровая грамотность сотрудников
Необходимы регулярные информационные кампании и обучение методам, как выявлять фейки, для распространения которых киберпреступники используют мессенджеры, корпоративную почту и другие каналы коммуникации.

01.03.2024

Другие публикации

Angara Security и «Фродекс» стали партнерами в сфере кибербезопасности

Angara Security, крупнейший интегратор комплексных решений по кибербезопасности, объявляет о сотрудничестве с российской компанией «Фродекс» — одним из ведущих разработчиков решений по управлению уязвимостями IT-инфраструктур.

актуально
рекомендации

23.10.2024

Angara Security примет участие в конференции АБИСС 22 октября

Третья конференция по регуляторике информационной безопасности АБИСС пройдет в Москве 22 октября.

актуально
рекомендации

22.10.2024

Angara Security представит новую онлайн-платформу для управления цифровым следом на SOC Forum 2024

Компания Angara Security выступает стратегическим партнером SOC Forum 2024 (Security Opportunities and Challengers), который пройдет в Москве 6-8 ноября в рамках Недели кибербезопасности.

актуально
рекомендации

21.10.2024

Angara Security провела конференцию «Angara Security Day 2024

10-11 октября Angara Security провела мультивендорную юбилейную пятую конференцию «Angara Security Day». Мероприятие собрало около 380 представителей крупнейших российских вендоров и заказчиков ИБ-решений.

актуально
рекомендации

17.10.2024

Angara Security запустила платформу предиктивной аналитики для атрибуции киберугроз по отраслевой принадлежности компаний

Эксперты Центра киберустойчивости Angara SOC на основе данных международной классификации MITRE ATT&CK®, базы данных угроз безопасности ФСТЭК и собственной практики расследования и реагирования на инциденты ИБ разработали платформу для автоматического определения.

актуально

24.05.2024

Остались вопросы?

Понравилась новость?

Подпишитесь на уведомления о новых материалах