
Современные мошенники активно осваивают передовые технологии, в частности искусственный интеллект, для совершения своих преступлений. Один из новых методов заключается в создании видеороликов, где злоумышленники имитируют внешность и голос близких или знакомых жертвы, убеждая их перевести деньги в долг или оказать финансовую помощь. Подобные схемы вымогательства, основанные на технологиях дипфейков, вызывают серьезную обеспокоенность среди правоохранительных органов.
Принцип действия такой аферы прост, но эффективен: используя нейронные сети, киберпреступники способны преобразовать статичное изображение (фотографию) в динамичное видео. Этот процесс включает воссоздание мимики, характерных жестов, интонации голоса и даже эмоционального состояния человека, изображенного на снимке. После создания убедительного видеофайла, его рассылают потенциальным жертвам — друзьям и родственникам обманутого человека.
Чтобы избежать попадания в ловушку таких обманных схем, специалисты по кибербезопасности настоятельно рекомендуют всегда проверять подлинность подобных запросов. Если вы получили видеосообщение с просьбой о деньгах, где отправитель кажется вашим знакомым, немедленно свяжитесь с ним по другому каналу связи (например, позвоните по известному вам номеру телефона) и уточните обстоятельства. В большинстве случаев такая простая проверка выявляет факт взлома аккаунта или мошенничества.
Стоит отметить, что помимо использования дипфейков, мошенники постоянно изобретают новые способы обмана. Например, ранее сообщалось о случаях, когда злоумышленники выманивали деньги у продавцов магазинов под предлогом так называемой «проверки терминалов оплаты».