Иллюстративное фото: pixabay.com
Мошенники начали делать дипфейки родственников своих жертв и с их помощью вымогать деньги. О новой схеме заговорили в России. О том, как она работает, узнали журналисты NUR.KZ.
Искусственный интеллект (ИИ) могут использовать не только во благо, но и в корыстных целях. Ранее мы уже рассказывали о том, что мошенники активно используют дипфейки – сгенерируемые голос и внешность своих жертв для того, чтобы оформить на них кредиты.
Однако дипфейки теперь используют и по-другому. Как сообщает РИА Новости, аферисты начали создавать «аватары» родственников своих жертв.
«Мошенники используют нейросети, чтобы из фотографии сделать видео, которое воссоздает мимику, голос, жесты и эмоции человека с фото. На подобных видео «аватар» обычно просит занять деньги. После чего аферисты рассылают видеоматериал родственникам и товарищам», – рассказали журналисты.
То есть вместо попыток обмануть систему безопасности банков, преступники нацелились на простых людей, рассчитывая на их невнимательность.
Защититься от таких схем просто: не переводите деньги, пока не убедитесь, что просьба настоящая. Для этого не нужно искать ошибки в видео – достаточно позвонить родственнику и уточнить, действительно ли ему нужна помощь.
Такие случаи активно фиксируются в России, однако аферисты могут начать атаковать и казахстанцев, в связи с этим важно, находясь в Интернете, сохранять бдительность и не доверять слепо сообщениям, которые могут оказаться частью мошеннической схемы.
Комментарии закрыты.