Мошенники убедили врача оформить три кредита и перевести все свои деньги на неизвестные счета, напугав списанием средств в пользу Украины и ВСУ.
Мошенники с помощью искусственного интеллекта запугивают родителей голосами родных детей
Мошенники с использованием клонированного голоса заявили Дженнифер ДеСтефано (справа), что похитили ее дочь Брианну (слева). Уже известны случаи, когда подделывали голос человека и даже внешность. Мошенники ради обмана россиян подделывают голоса родных и близких потенциальных жертв — об этом рассказали в Центробанке РФ. Чтобы мошенники не подделали ваш голос и не позвонили кому-то от вашего имени, не разговаривайте с незнакомыми людьми по телефону и не называйте слова "да" и "нет".
Как мошенники записывают голоса других людей?
- Мошенники имитируют голос родственников с помощью искусственного интеллекта
- Греф рассказал о мошенниках, подделывающих голос и изображение клиентов банков
- Мошенник подделал голос друга и выманил 50 000 ₽
- Мошенники научились подделывать ваш голос: стоит ли опасаться
Эксперт предупредил, что мошенники могут подделывать голоса родственников жертв
"Аудиодвойник" бизнесмена из Москвы обманом заполучил кассу его фитнес-клуба, пока он отдыхал | Телефонные мошенники в России все чаще подделывают голоса родственников и знакомых своих жертв. |
Мошенники научились подделывать голоса. Как не попасться на уловку | Для обмана граждан мошенники начали подделывать голоса родных и знакомых потенциальной жертвы. Об этом, как передаёт 17 января РИА Новости, предупреждает Центробанк. |
ЦБ: Мошенники начали подделывать голоса родных и знакомых россиян — Большой город | Такая запись голоса может требоваться мошенникам, поскольку качество записи телефонного разговора недостаточно для обучения нейросетей, говорит бизнес-консультант по информационной безопасности компании Positive Technologies Алексей Лукацкий. |
Могут ли мошенники подделать голос и украсть деньги со счета?
По собственному признанию Дженнифер, она никогда не забудет тех минут ужаса, которые ей пришлось пережить из-за мошенников. Когда дочь перезвонила и сообщила, что с ней всё в порядке, мать просто сползла на пол в слезах облегчения. Дипфейк как инструмент мошенничества Правоохранительным органам давно знакомы подобные схемы, однако благодаря ИИ они вышли на принципиально новый уровень. Используя записи голосов, взятые из соцсетей, злоумышленники теперь способны очень убедительно «клонировать» голоса и заставлять их говорить нужные слова. Тенденции последних лет показывают, что для убедительного фейка нужно всё меньше данных». По словам Фарида, существуют целые сервисы клонирования голоса, абонентская плата которых составляет всего 5 долларов в месяц, а эти деньги в состоянии заплатить кто угодно. Пока что злоумышленники явно используют только заранее подготовленные записи, но, похоже, подделка голоса в режиме реального времени скоро перестанет быть чем-то экзотическим, и паникующим родственникам будут давать возможность поговорить с якобы похищенными, в надежде убедить их, что всё произошло на самом деле. Единственный эффективный способ противодействовать подобному - не выкладывать записи своего разговорного голоса в общий доступ в соцсетях. И в целом минимизировать количество персональной информации, публикуемой онлайн.
Поэтому в Роскачестве настоятельно рекомендуют не брать трубку, если кто-либо звонит с подозрительного или просто незнакомого номера, проявлять крайнюю осторожность, размещая в мессенджерах или социальных сетях голосовые сообщения и другой контент. Кроме того, необходимо регулярно использовать антивирусное и антишпионское ПО, чтобы своевременно обнаруживать программы, способные украсть персональную информацию.
Собеседник с помощью deepfake выдает себя за члена семьи или человека, который обычно рассчитывает на деньги. Это может быть и голосовое сообщение, когда у звонящего может быть готовый сценарий. В полном звонке мошенника часто бывают большие паузы, когда он заставляет голосовой генератор создавать ответы на задаваемые вопросы. При использовании базовых технологий такие подделки вряд ли будут идеальными, вместо этого предлагается версия голоса, которая может быть немного искажена. Однако, полагаясь на стрессовую ситуацию, мошенники надеются, что люди не заметят этого или сочтут, что звонящий находится в состоянии стресса. Как бороться с дипфейками По мере того как эти мошенничества становятся все более распространенными, возникает вопрос как о том, как лучше с ними бороться, так и о том, могут ли люди сделать что-то, чтобы меньше подвергаться их воздействию.
Легко быть критичным, когда это происходит не с вами, но в реальной ситуации это трудно. Когда происходит странная ситуация, задайтесь вопросом, похоже ли это на вашего знакомого, могут ли они сами так говорить, или ситуация, которую они описывают, кажется вам маловероятной Существуют программы, с помощью которых можно распознать фальшивку, но у обычного человека вряд ли есть такая программа под рукой. Если вам позвонил близкий человек, которого вы не ждали, и у вас возникли подозрения, перезвоните ему или напишите сообщение, чтобы узнать, где он находится. Оцените реальность и действуйте дальше". Хотя можно попытаться удалить весь контент в Интернете, это очень сложная задача, требующая тщательной проверки как ваших социальных сетей, так и друзей и родственников. Кроме того, может быть больше контента с вашей работы или из социальных групп, где есть пригодные для использования кадры и аудиозаписи.
Например, матери может прийти голосовое сообщение от «дочери», якобы попавшей в аварию, а сестре — позвонить брат с вопросом жизни и смерти. Совпадение полное за исключением того, что ребёнок говорил, — он у меня не говорит именно так. Тем не менее это очень близко к реальности, и спутать человека очень легко», — рассказал «Абзацу» ведущий аналитик Mobile Research Group, аналитик ИИ Эльдар Муртазин. Для того чтобы звонок был более адресным, злоумышленники проделывают большую работу — на основании информации из соцсетей составляют цифровой портрет человека.
Это позволяет определить круг его близких, сферу деятельности и личные предпочтения. Никто от этого не защищён, поэтому смотрим, с какого телефона вас набирают, насколько человек владеет той информацией, которую знаете только вы вдвоём», — продолжает эксперт. Эксперт рекомендует для защиты от мошенников придумать со своими родными и близкими кодовые слова. Они помогают определить, кто звонит — живой человек или программа. Синтез голоса Для копирования голоса используются технологии речевого синтеза.
Подделали голос внучки. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч
Прозвони мне, прозвони. IT-эксперты рассказали, как мошенники подделывают голоса россиян | Теперь мошенники способны с помощью искусственного интеллекта сымитировать голос знакомого или родственника потенциальной жертвы. |
Мошенники имитируют голос родственников с помощью искусственного интеллекта | Мошенники подделывают голоса, притворяясь вашими родственниками или знакомыми Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного. |
Телефонные мошенники стали подделывать номера и голоса родственников
В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч. С помощью специальных программ мошенники воспроизводят голоса родных потенциальной жертвы. Те, кто разбирается в технологиях мошенничества, без труда подделают не только голос, но и другие личные данные. С этой технологией мошенники подделывают голоса и изображения реальных людей, после чего звонят их друзьям, коллегам и подчиненным. Мошенники для обмана россиян стали подделывать голоса родных и знакомых жертвы. Те, кто разбирается в технологиях мошенничества, без труда подделают не только голос, но и другие личные данные.
Накатанные схемы уже не в моде, но работают
- Греф рассказал о мошенниках, подделывающих голос и изображение клиентов банков
- Как мошенники научились подделывать голос с помощью нейросети?
- Мошенники придумали новую схему развода с подменой голоса. Будьте бдительны
- Компания потеряла $25,6 млн из-за обмана сотрудника по видеосвязи / Хабр
- Как мошенники записывают голоса других людей?
Эксперт по кибербезопасности Ефимов предупредил о возможности создать фейковую аудиозапись
Все присутствовавшие на видеозвонках, кроме жертвы, были ненастоящими людьми. Мошенники использовали общедоступные видео и другие материалы, чтобы создать убедительные дипфейки. Полиция отмечает, что это первый случай, когда жертву обманули при помощи группового дипфейка, а не в ходе общения один на один. Целью мошенников стал сотрудник финансового отдела филиала, который получил, по всей видимости, фишинговое сообщение. В середине января ему поступило требование якобы от финансового директора компании в Великобритании, заявившего, что необходимо провести секретную транзакцию. Сотрудник испытывал сомнения до того момента, пока его не пригласили на групповой созвон.
Тем не менее это очень близко к реальности, и спутать человека очень легко», — рассказал «Абзацу» ведущий аналитик Mobile Research Group, аналитик ИИ Эльдар Муртазин. Для того чтобы звонок был более адресным, злоумышленники проделывают большую работу — на основании информации из соцсетей составляют цифровой портрет человека. Это позволяет определить круг его близких, сферу деятельности и личные предпочтения.
Никто от этого не защищён, поэтому смотрим, с какого телефона вас набирают, насколько человек владеет той информацией, которую знаете только вы вдвоём», — продолжает эксперт. Эксперт рекомендует для защиты от мошенников придумать со своими родными и близкими кодовые слова. Они помогают определить, кто звонит — живой человек или программа. Синтез голоса Для копирования голоса используются технологии речевого синтеза. В специальную программу загружаются образец голоса реального человека и текст, который нужно произнести. В качестве звукового материала используются записи телефонных звонков в том числе с роботами , видеозаписи, размещённые в соцсетях, и голосовые сообщения в мессенджерах.
Реклама Вместе с сообщниками мужчина обманывал доверчивых людей, используя для этого лишь телефон. Поздней ночью они звонили, жертвам и говорили, что их сын либо внук попал в беду. Он говорит: "Мама, я сбил человека".
Я говорю: на переходе сбил, да? Да, мама, насмерть", - рассказала потерпевшая. Разумеется, сыном представился один из мошенников.
В целом, хотя развитие искусственного интеллекта может представлять новые риски для кибербезопасности, простые меры предосторожности и правовая защита могут помочь предотвратить неправомерное использование личной информации.
Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян
Глава Сбербанка Герман Греф сообщил о телефонных мошенниках, которые совершают атаки на клиентов банков с помощью подделки голоса. Нередко аферисты подделывают голос родственников или знакомых потенциальной жертвы. Мошенники подделали голос гендиректора московского фитнес-клуба с помощью нейросети и украли выручку.