Названивают с того света и просят денег: мошенники научились воскрешать покойников

С помощью таких нейроботов разводят родственников покойных.

Мошенники придумали новую схему, связанную с искусственным интеллектом. С помощью нейросетей они создают цифровые копии умерших людей и используют их в своих целях.

Как пояснили в Центре цифровой экспертизы Роскачества, технология цифрового «воскрешения» основана на нейросетевых алгоритмах, способных создавать интерактивные цифровые копии умерших людей.

- Изначально подобные разработки создавались в терапевтических целях, чтобы помочь людям в преодолении тяжелой утраты через символическое «общение» с цифровой проекцией умершего. Однако, как это часто происходит с перспективными технологиями, механизм быстро привлек внимание мошенников, - цитирует ТАСС специалистов ведомства.

По словам экспертов Роскачества, целью мошенников являются уязвимые люди, переживающие утрату. Такие симуляторы могут использовать заинтересованные компании или киберпреступники для скрытой рекламы или для манипуляций пользователями. Людям внушают, что бот - на самом деле их умерший родственник.

- Цифровые копии могут убеждать родственников в необходимости «финансовой помощи», рекомендовать покупку определенных товаров или услуг, - отметили в Роскачестве.

Также обученный на реальных данных человека нейробот способен пройти биометрическую верификацию в некоторых системах, подтвердить голосом или онлайн-присутствием согласие на получение микрозайма и даже подписать электронный документ.

- Кибератаки с применением дипфейк-видео становятся массовым явлением - уже второй год подряд в России фиксируют случаи мошенничества, в ходе которых злоумышленники с помощью нейросетей крадут деньги, представляясь умершими людьми, - подчеркнули специалисты ведомства.

Кроме этого, аккаунты умерших людей могут использовать и для фишинговой рассылки от имени реальных людей, так как сообщения от аккаунта с «живым» профилем в соцсетях и истории переписок в мессенджерах у потенциальных жертв не вызовут подозрений. Также такие нейроботы могут обеспечить мошенникам проведение масштабных DDoS-атак или организацию массового распространения нежелательного контента.

- Когда мошенники используют дипфейк живого человека, у жертвы всегда есть возможность проверить подлинность сообщения, например, связавшись альтернативным способом. Однако с цифровой копией умершего такая проверка невозможна в принципе. Это создает идеальные условия для преступников, ведь цифровой образ можно бесконтрольно использовать в мошеннических схемах, играя на эмоциях и доверии людей, - пояснил заместитель руководителя Центра цифровой экспертизы Роскачества Георгий Тарачев.

Фото: КТВ-ЛУЧ

2 Октября 2025, 11:17 / Общество