Робот-мошенник
Используют голос родных, просят денег, шантажируют: новые способы обмана с помощью нейросетей
Нейросети активно входят во все сферы нашей жизни. Ими уже активно пользуются даже школьники. Кажется, искусственный интеллект (ИИ) способен на все: за несколько секунд написать реферат, сочинить музыку, создать любое изображение – фото, аудио или видео. Неудивительно, что одними из первых новыми технологическими возможностями заинтересовались мошенники. Прежде всего, потому, что пользование нейросетями не требует специальных знаний, а контент при этом получается очень высокого качества. Разумеется, конечная цель у преступников чаще всего все та же – добраться до чужих сбережений. Но методы совершенствуются каждый день.
Узнай о новых уловках кибер-карманников, чтобы не попасть в их сети
Подделка документов
Искусственный интеллект отлично справляется с созданием паспортов, водительских удостоверений, банковских выписок и т. п. Результат получается настолько реалистичным, что эти фальшивки легко проходят проверку, например, на криптобирже. При правильной постановке задачи нейросеть даже может сгенегировать «неудачную» фотографию или кривой скан документа. С помощью таких подделок можно завести аккаунт в соцсетях, забронировать автомобиль, оформить кредит на небольшую сумму и даже зарегистрировать фирму-однодневку. Кроме того, проанализировав твою переписку с родными, нейросеть может написать от твоего имени настолько убедительное личное электронное письмо (с домашними прозвищами, личными словечками, не известной посторонним информацией), что адресат и не заподозрит подвоха. А итог один – потеря денег. Также могут быть сфальсифицированы рассылки и сообщения в СМИ о проблемах с твоим банком или инвестиционной компанией, после чего тебе позвонят с предложением схемы по спасению твоих сбережений.
Имитация голоса
Сегодня это хит в преступном мире – искусственный интеллект анализирует аудиосообщения какого-нибудь человека и за несколько секунд генерирует аудиоверсию его обращения к родственнику с просьбой помочь деньгами, заплатить выкуп и т. п. Поддельный голос так похож на оригинал, что, получив такое послание с телефона человека, которого хорошо знаешь (а номер отправителя они тоже умеют подделывать), ты не будешь сомневаться в подлинности звонка. При этом в тексте аудиозаписи используются узнаваемые словечки твоего знакомого или родственника, его интонации и даже дефекты речи. Часто мошенники применяют двойной удар – присылают голосовое сообщение с просьбой перечислить деньги, а следом отправляют поддельные документы и, к примеру, фотографию банковской карты, на которую необходимо отправить перевод.
Шантаж
Это мошенничество способно принести гораздо больше неприятностей, чем обычная потеря денег. Например, используя фотографии из твоего личного аккаунта в соцсетях, преступники с помощью искусственного интеллекта создают фейковые интимные изображения. Это может быть просто «обнаженка» или кое-что похуже – сцены 18+ с партнером, чье фото есть на твоей странице, скажем, с мужем подруги или начальником. Затем присылают «фотографии» и требуют денег, угрожая отправить компромат супругу или вообще всем адресатам твоей электронной почты. Разумеется, большинство жертв, оказавшихся в подобной ситуации, предпочтут расстаться с деньгами.
Благотворительность
Здесь может быть несколько вариантов. В одном случае жулики используют нейросети, чтобы создать фальшивые фотографии и документы, вызывающие жалость и сострадание. Например, изображение больного ребенка в палате интенсивной терапии и больничные выписки о его тяжелейшем недуге. Также может использоваться инфоповод – какое-нибудь громкое событие, активно обсуждаемое в прессе: техногенная катастрофа, наводнение, землетрясение и т. п. В этом случае будут собирать деньги на помощь жертвам происшествия.
Фишинговые письма
Этот метод давно освоен киберпреступниками. Но теперь вместо хакера, сочиняющего письмо с вредоносной ссылкой, подобные сообщения составляет искусственный интеллект. Задача ложных писем – заинтересовать адресата, вызвать у него эмоцию и заставить открыть ссылку, содержащуюся в послании. Эта ссылка позволяет преступникам добраться до личных данных, а затем и до банковских счетов. Раньше, чтобы письмо достигло цели, преступникам нужно было в ручном режиме вскрывать почту, анализировать сотни писем, постов, лайков в соцсетях, чтобы понять круг интересов жертвы и составить именно то послание, которое заставит перейти по ссылке. А нейросеть справляется с этим за пару секунд.
Рассылка от звезд
Не застрахованы от преступного интереса и знаменитости. Искусственный интеллект легко создает фальшивые видеозаписи, где известный человек призывает поклонников вложить средства в какое-нибудь сомнительное предприятие. Так, в 2023 году по всему миру разлетелось видеопослание «Илона Маска», где клон знаменитого бизнесмена рекламировал инвестиции в некий криптовалютный проект. Разумеется, люди, которые поверили фейковому миллиардеру и вложили деньги, не увидели ни своих средств, ни обещанной прибыли.
Как распознать подмену
Создавая фейковые видеопослания, мошенники подделывают даже «кружочки» в Телеграме. Специалисты по борьбе с киберпреступностью советуют просматривать такие сообщения несколько раз, внимательно анализируя детали. Нейросети работают хорошо, но все еще не идеально, в творениях искусственного интеллекта всегда есть шероховатости. Существует несколько признаков, позволяющих определить видеоподделку.
- Ненормальные движения, жесты, мимика. Также могут быть заметны аномалии и несоответствия в фоне или освещении.
- Движение глаз. Фальшивый человек, созданный нейросетью, редко моргает. Понаблюдай за этим – работает безотказно.
- Несинхронный звук. В подобных видео часто запись речи не совпадает с движением губ. Расхождение может быть небольшим, но заметным.
Как защититься
При всем техническом совершенстве мошеннических приемов, голос живого разума, при желании, поможет справиться и с этим. Важно следить за информацией в СМИ, где регулярно описываются новые схемы, и быть начеку. А также соблюдать некоторые правила:
- не поддавайся соблазну получить легкие деньги. Если банк или другая организация заманивает сказками о невероятной прибыли, слишком высоком проценте, это явное мошенничество;
- защищай свои персональные данные, коды, пароли и т. д. Никогда не сообщай их по телефону или электронной почте, как бы ни просили;
- любую дистанционную просьбу перевести деньги, от кого бы она ни исходила, тщательно перепроверяй. Свяжись с автором письма или видеопослания и убедись в том, что писал или звонил действительно он.
- будь бдительна в соцсетях. На всех своих аккаунтах подключи двухфакторную идентификацию – там, где это возможно. Закрой доступ посторонним к личной информации на своей странице, сделав ее приватной;
- установи спам-защиту от нежелательных звонков на своем смартфоне. Старайся не отвечать на звонки с незнакомых номеров. Если разговор кажется подозрительным, задай собеседнику случайный «странный» вопрос, не связанный с темой разговора. Это даст возможность понять, с кем ты говоришь – с человеком или ботом.
Фото: ShutterStock/Fotodom.ru.
Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl