Эксперты предупреждают: число мошеннических дипфейков, использующих искусственный интеллект, будет расти, и россиянам необходимо быть готовыми к новым видам обмана.
Фото: Екатерина Якель
Александра Шмигирилова, GR-директор компании «Код безопасности», предупредила о значительном увеличении числа мошеннических аудио- и видео-дипфейков.
Она объяснила, что злоумышленники активно используют технологии искусственного интеллекта для создания убедительных подделок голоса, мимики и жестов. Типичная схема включает взлом аккаунта в мессенджере, где от имени владельца публикуется дипфейк-видео, призывающее перейти по вредоносным ссылкам.
Уже сегодня многим сложно отличить дипфейк от реальности, а в будущем эти ИИ-технологии станут центральным инструментом мошенников. Киберпреступники также используют ИИ для автоматизации атак и адаптации стиля общения с жертвами, подбирая правильный тон и вектор воздействия.
Шмигирилова подчеркнула, что россиянам необходимо быть готовыми к повсеместному распространению фейковых видео, аудиосообщений и звонков.
Эффективность мошенников прямо пропорциональна скорости внедрения новых методов. Чем быстрее они адаптируют свои схемы под новые платформы, например, мессенджеры, тем успешнее их атаки, поскольку пользователи таких платформ менее осведомлены о потенциальных угрозах.
Она также отметила, что использование менее распространенных каналов связи увеличивает шансы мошенников на успех. Для этого им приходится постоянно меняться, изобретая новые «легенды» и тактики, стараясь максимально долго скрывать свои методы от широкой публики.
Однако, по сути, основные инструменты остаются неизменными: фишинговые ссылки и социальная инженерия, которые являются фундаментом для большинства онлайн-мошеннических схем.
Параллельно МВД России призвало граждан удалять или надёжно защищать файлы, представляющие интерес для киберпреступников. Особую осторожность следует проявлять с фотографиями и сканами документов, таких как паспорт, СНИЛС, ИНН, водительские права и данные банковских карт.