16+
Пятница, 8 ноября 2024
  • BRENT $ 73.74 / ₽ 7232
  • RTS880.52
6 февраля 2024, 15:49 Технологии

Компанию из Гонконга обманули почти на 26 млн долларов. Мошенники применили групповой дипфейк

Лента новостей

Сотрудника финансового отдела пригласили на видеоконференцию, в которой принимали участие директор и несколько других топ-менеджеров. По ее результатам сотрудник и перевел деньги на указанный счет. Как такое стало возможным? И как с этим бороться?

Фото: Кирилл Черезов/Фотобанк Лори

Мошенники обманули компанию из Гонконга на 25,6 млн долларов. Они сделали это уникальным способом — с помощью группового дипфейка. Как пишут СМИ, некая транснациональная компания (ее названия не приводится) лишилась крупной суммы денег из-за одного доверчивого сотрудника финансового отдела.

Сначала ему на рабочую почту пришло письмо якобы от топ-менеджера британского офиса компании. Там было приглашение к участию в видеоконференции. Он подключился и увидел, что в беседе принимает участие не только директор, но и несколько других сотрудников.

Оказалось, что на этой встрече только сам обманутый сотрудник был настоящим. Остальные участники были сгенерированы по технологии дипфейк — их лица и голоса были подделаны. Но так качественно, что у сотрудника не возникло подозрений. Он перевел на указанные счета 26 млн долларов и заподозрил неладное только спустя неделю. О том, как такое стало возможным, говорит гендиректор Dbrain, автор телеграм-канала AI Happens Алексей Хахунов:

Алексей Хахунов гендиректор Dbrain, автор телеграм-канала AI Happens «Единственное, что мне кажется странным, зная, как устроены большие компании, что есть человек, который может выполнять крупные операции без подписей трех-четырех сотрудников, потому что обычно это все-таки распределенная ответственность. Можно ли сгенерировать цифровые копии и провести с помощью них отдельную видеоконференцию? Точно можно, при этом она будет хорошего качества, в ней будут хорошие голоса, это реальная история. Существующие технологии это позволяют сделать. В статье есть вопрос про то, откуда вообще берутся семплы этих людей, то есть на чем обучаются сами нейросети, чтобы они могли повторить человека. Все просто, как пример, мы могли с этими людьми разговаривать, презентуем какой-нибудь свой внешний продукт, то есть мы сделали решение, договорились сделать звонок и оттуда получили данные. Данных надо мало, то есть три-пять минут разговора человека более чем достаточно, чтобы сделать по нему цифровую копию. Поэтому это все звучит правдиво. Интересный вопрос в том, были ли это изначально записанные роли разговора или они генерировались в реальном времени. При этом я допускаю, что это, на самом деле, могла быть неполная генерация, то есть когда полностью изначально сгенерированная, а есть механика, когда, условно, на звонке сидит реальный человек, вся мимика и все, что он говорит, это его, но нейросети преобразуют это в другого человека с измененным голосом, с измененной внешностью, и эта задача проще, чем полностью сгенерировать».

В теории можно было бы вычислить, что собеседники ненастоящие, если попросить их повернуть голову. Тогда появились бы помехи в изображении. Однако современные технологии научились копировать человека не только в профиль, но и в анфас. Поэтому для определения, тот ли собеседник перед вами, есть другие способы, говорит бизнес-консультант по информационной безопасности компании Positive Technologies Алексей Лукацкий:

Алексей Лукацкий бизнес-консультант по информационной безопасности компании Positive Technologies «Распознать его, если он подготовлен грамотно, очень сложно, по крайней мере, именно визуально, потому что сегодня можно с разных точек зрения отснять человека или получить его видеоизображение и, соответственно, сделать его так, что детектировать будет сложно. Эти повороты и так далее мошенники научились обходить уже давно, и технологии определения живости человека, к сожалению, сегодня не являются панацеей. Поэтому одним из элементов проверки является уточнить у собеседника информацию, которая известна только двум либо очень ограниченному количеству лиц, либо как бы перепроверить, что собеседник тот, за кого он себя выдает, через резервные каналы коммуникации, через мессенджеры, через телефонный звонок и так далее. И, конечно же, включать некое критическое мышление, что если требуется серьезная финансовая операция, то она должна подтверждаться не по результатам видеозвонка, а с применением дополнительных каналов связи. Сегодня в условиях, когда в Российской Федерации активно идут разговоры об обязательном применении в отдельных финансовых операциях единой биометрической системы, которая построена на работе с биометрией, в частности, с двумя модальностями — это с голосом и с видео, — мы как специалисты по кибербезопасности ожидаем роста числа мошенничества, в том числе с применением дипфейков, и в Российской Федерации».

На момент выхода материала об обманутом сотруднике расследование продолжалось. Подозреваемые гонконгской полицией пока не найдены, деньги компании вернуть не удалось.

Рекомендуем:

Фотоистории

Рекомендуем:

Фотоистории
BFM.ru на вашем мобильном
Посмотреть инструкцию