Названы схемы мошенничества с использованием искусственного интеллекта

12 февраля 2024, 15:19
Мошенники начали активно использовать нейросети для обмана на деньги и кражи личных данных пользователей.
Названы схемы мошенничества с использованием искусственного интеллекта
Фото: Newsler.ru

Мошенники начали осваивать возможности искусственного интеллекта (ИИ). Вот несколько популярных схем.

Подмена голоса

ИИ уже научили создавать фальшивые документы. Нейросети могут быстро генерировать поддельные паспорта, водительские удостоверения и банковские выписки. Но «прогресс» пошел дальше и сейчас для нейросети не составит труда скопировать личность человека на основе анализа стиля письма в социальных сетях. Это начали использовать мошенники, сообщает портал rostovgazeta.ru.

Так, используя эти данные, нейросеть может написать письмо от имени человека его родственникам и сообщить о сложной ситуации, требующей срочного финансового помощи. Кроме того, злоумышленники могут клонировать голос, используя технологию синтеза речи.

Это значит, что они могут сделать запись голоса, который будет произносить определенные слова.

Фишинговые сайтами

В России появились мошенники, которые создают фальшивые сайты, выдающие себя за сервисы, где можно приобрести доступ к чат-боту на основе искусственного интеллекта ChatGPT. Они воспользовались тем, что в России нельзя зарегистрироваться в этом сервисе.

Если пользователь попадает на фейковый сайт и будет следовать инструкции, он рискует стать жертвой мошенников, потеряв свои платежные данные и другую конфиденциальную информацию. Это типичная схема мошенничества, которая использует новую актуальную тему.

Дипфейки

Существуют способы подделать как голос, так и образ. С помощью новых технологий на основе искусственного интеллекта можно создавать фейковые изображения и видео, которые кажутся реальными. Это называется «дипфейк».

Зарубежные злоумышленники уже попробовали использовать дипфейки для получения доступа к базам данных при удаленной работе в сфере IT. Однако, созданные видеоклоны выдают свою неподлинность через неестественную речь, несоответствие движениям губ и ненастоящие эмоции.

Волна дипфейков уже охватила Юго-Восточную Азию и Африку, и скоро может дойти и до России. Это может привести к звонкам от «родственников» или других подставных лиц, например, пожилым людям.

Получается, мы можем столкнуться с ситуацией, когда мошеннические звонки от якобы представителей силовых ведомств или банка будут полностью происходить при помощи программных алгоритмов на базе нейросетей.

Признаки дипфейков

Неестественная мимика — движения губ не согласуются с произносимыми словами, одинаковое выражение глаз, нет изменений эмоций.

Плохое качество изображения — пикселизация или размытие, особенно в областях с активной мимикой, такими как брови и уголки рта.

Звук опережает картинку или не успевает за движениями человека.

Для выявления фальшивок также используются нейросети. В будущем технологии создания и обнаружения дипфейка станут еще более продвинутыми.

Техподдержка как способ мошенничества

Благодаря использованию нейронных сетей преступникам стали легче представляться другими людьми. Одна из таких схем, которая становится все более популярной, заключается в том, чтобы притворяться сотрудниками поддержки банков, сайтов или государственных организаций. Искусственный интеллект успешно поддерживает диалоги, в ходе которых уговаривает людей установить вредоносное ПО на свои устройства, перевести деньги на счета для оплаты налогов и государственных пошлин, а также передать личную информацию, платежные данные и другие сведения.

Это явление активно используют аферисты, поскольку они пользуются доверием людей к официальным представителям этих организаций. Виртуозное ведение разговора заставляет жертву поверить, что она общается с настоящим сотрудником, и это делает всю ситуацию еще более опасной. Большинство людей не задумываются о том, что могут стать жертвами мошенничества, поэтому они доверяют поддержке и готовы предоставить свои личные данные.

С развитием технологий нужно проявлять бдительность в интернете. Важно знать и помнить - официальные представители банков, сайтов или государственных учреждений никогда не будут просить перевести деньги или передать конфиденциальную информацию через обычные сообщения или звонки. Если вы получаете подозрительный запрос, лучше связаться с организацией напрямую и уточнить все детали.

Комментарии (1)
Бывалый РВЗ 6 М2 | 12 февраля 2024, 17:10 #
Почему ещё не всё мошенники на зонах??? Лучше всего вернуть расстрел и ставить их к стенке.
Авторизуйтесь, чтобы оставлять комментарии. Также вы можете войти через социальные сети:
Читайте в СМИ