Домой Технологии Кибербезопасность Весна, любовь и нейросети – как мошенники используют ИИ на сайтах знакомств

Весна, любовь и нейросети – как мошенники используют ИИ на сайтах знакомств

60

Мошенники могут использовать искусственный интеллект на сайтах знакомств для изощренного обмана — об этом предупредили эксперты. Нейросети позволяют злоумышленникам автоматизировать то, что они раньше делали вручную, сохраняя иллюзию человеческого контакта.  Мы публикуем несколько точек зрения   профессиональных экспертов по кибербезопасности на проблемы в этой сфере интернет- общения.

Человек приходит на платформу для знакомств с ожиданием найти партнера, он готов делиться личной информацией, фотографиями, рассказывать о своей жизни, что снижает критичность восприятия и делает людей уязвимыми для манипуляций, дополняет ведущий инженер-аналитик лаборатории технологий искусственного интеллекта аналитического центра кибербезопасности компании «Газинформсервис» Ирина Меженева.

Важно и то, что многие пользователи не имеют опыта распознавания мошеннических схем в цифровой среде, особенно среди старших возрастных групп, которые активно используют такие сервисы. Раньше уловки аферистов требовали времени и ручной работы — переписка, поддержание легенды, создание правдоподобной истории. ИИ же автоматизирует этот процесс и позволяет вести сотни диалогов одновременно с минимальными затратами, подчеркивает аналитик.

Мошенники на сайтах знакомств часто используют нейросети, чтобы создать образ идеального партнера — с подходящей внешностью, голосом и манерой общения, рассказывают эксперты «МТС Защитник». Цель злоумышленников — построить с потенциальной жертвой долгие доверительные отношения, чтобы затем получить доступ к ее деньгам или личным данным.

— Прежде всего, нейросети генерируют реалистичные изображения несуществующих людей для фейковых профилей, —эксперт по социотехническому тестированию Angara Security Яков Филевский. — Больше нет необходимости красть чьи-то фотографии: привлекательный аватар создается за секунды и не находится обратным поиском. При этом автоматизации подвергается и сама переписка.

По словам собеседника редакции, чат-боты на базе больших языковых моделей способны одновременно общаться с сотнями людей, проявляя эмпатию и подстраиваясь под стиль письма потенциальных жертв. Всё это постепенно формирует чувство доверия со стороны последних, отмечает эксперт Леонид Безвершенко. В то же время существует множество романтических скам-схем, когда под различными предлогами у пользователя выманивают деньги или данные.

Например, мошенник может рассказывать о своих успешных инвестициях (часто в криптовалюту) и предлагать «заработать вместе». Для усыпления бдительности он может помочь вывести небольшую сумму, но затем уговорить вложить все сбережения, обещая огромную прибыль, которой жертва так и не увидит, объясняет специалист. Также могут быть реализованы и автоматизированные кампании, где часть общения ведется с помощью ИИ, а «подключение» реального человека происходит уже на этапе запроса денег.

— Отдельный сценарий — аудио- и видеодипфейки для имитации «живого» диалога, — говорит Леонид Безвершенко. — При этом сама идея «подделки личности» не нова: до ИИ злоумышленники также использовали чужие или отредактированные фотографии, выдавая себя за других людей. ИИ лишь упростил этот процесс, позволяя делать подделки более правдоподобными и массовыми.

Через образы девушек, созданные при помощи нейросетей, мошенники ранее завлекали пользователей в схемы обмана, связанные с ложными инвестициями, установкой на телефоны вредоносного ПО для кражи денег с банковских счетов под видом приложений для знакомств, совместного дистанционного просмотра фильмов, а также под предлогом фальшивых свиданий, говорит в беседе с «Известиями» старший аналитик департамента защиты от цифровых рисков (Digital Risk Protection) компании F6 Мария Синицына.

В практике встречались случаи, когда полностью сгенерированный нейросетью персонаж вел параллельные романы с десятками людей и собирал деньги на «лечение» или «на встречу», добавляет Андрей Горячев. В одном из кейсов мошенники использовали ИИ для синтеза голоса и коротких видеосообщений по запросу жертвы, что убедило ее в реальности собеседника. Также фиксировались атаки, где нейросеть сама адаптировала легенду под биографию жертвы, извлеченную из ее соцсетей.

Для того, чтобы защититься от схем с нейросетями на сайтах знакомств, специалисты советуют соблюдать определенные правила безопасности. В частности, Мария Синицына призывает следить за появлением новых мошеннических схем, чтобы минимизировать шанс попасться на них.

— Если в общении с людьми, которых вы никогда не видели вживую и знакомы только онлайн, вам присылают записанные видео, то попросите позвонить вам через приложение для видеосвязи, чтобы поговорить в режиме реального времени, — рекомендует эксперт. — Отказ в этом случае является признаком возможного обмана.

Она также добавляет, что ИИ позволяет злоумышленникам использовать «маски» даже во время звонка по видеосвязи, поэтому для проверки подлинности изображения собеседника попросите его сделать неожиданное действие: например, быстро провести рукой перед лицом вправо-влево. Если при этом картинка начнет «сыпаться», возникнут искажения изображения в области лица собеседника — это признак возможного дипфейка.

С учетом того, что инструменты ИИ для создания дипфейков постоянно совершенствуются, эти способы проверки не позволяют гарантировать стопроцентного распознавания: всегда стоит обращать внимание на контекст общения, отмечает эксперт. Если собеседник принуждает вас к любым действиям, связанным с раскрытием своих данных или финансовыми операциями, — это вероятный признак мошенничества. На ранних этапах лучше сохранять общение внутри приложения и с осторожностью относиться к попыткам перевести диалог в сторонние каналы.

— Подозрительная настойчивость, быстрый переход к финансовым темам или просьбы о помощи — повод насторожиться, — заключает Леонид Безвершенко. — В целом, если возникают сомнения, лучше прекратить общение и воспользоваться встроенными инструментами жалоб. Дополнительно стоит установить на устройство защитное решение с функцией блокировки фишинговых ссылок.

В обзоре использована информация  различных интернет сайтов.

Больше интересных статей, новостей, обзоров здесь: https://t.me/mobilaser