Мошенники подделали голос родственника жертвы, который из-за этого лишился 100 тысяч рублей. Эксперты утверждают, чтобы подделать чужой голос нейросети необходим образец.
Сейчас на главной
- Почему сработал обман
- Эксперт по кибербезопасности Ефимов предупредил о возможности создать фейковую аудиозапись
- В Петрозаводске истекающий кровью мужчина выпрыгнул в окно и добежал до магазина
- Даже начинающие мошенники могут быть опасны
- Можно ли распознать по голосу телефонного мошенника?
- Мошенники имитируют голос родственников с помощью искусственного интеллекта
Телефонные мошенники стали подделывать номера и голоса родственников
С помощью поддельного голоса подруги мошенники смогли похитить браслет Bulgari стоимостью полмиллиона у простой и безработной студентки из Москвы. Эксперты утверждают, чтобы подделать чужой голос нейросети необходим образец. 15 миллионов звонков в день совершали телефонные мошенники в России в апреле, почти в два раза больше чем в прошлом году. Мошенники подделывают голоса, притворяясь вашими родственниками или знакомыми Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного.
Эксперт по кибербезопасности Ефимов предупредил о возможности создать фейковую аудиозапись
Посты не по тематике сообщества, а также недоказанные случаи мошенничества в случае обвинения какого-либо лица или организации. Кликабельные ссылки на магазины и прочие бизнес-проекты. Если Вам нужно сослаться на подобный ресурс — вставляйте пробелы вокруг точек: pikabu. Пошаговые, излишне подробные мошеннические схемы и инструкции к осуществлению преступной деятельности. Мотивация к мошенничеству, пожелания и советы "как делать правильно".
Тенденции последних лет показывают, что для убедительного фейка нужно всё меньше данных». По словам Фарида, существуют целые сервисы клонирования голоса, абонентская плата которых составляет всего 5 долларов в месяц, а эти деньги в состоянии заплатить кто угодно. Пока что злоумышленники явно используют только заранее подготовленные записи, но, похоже, подделка голоса в режиме реального времени скоро перестанет быть чем-то экзотическим, и паникующим родственникам будут давать возможность поговорить с якобы похищенными, в надежде убедить их, что всё произошло на самом деле. Единственный эффективный способ противодействовать подобному - не выкладывать записи своего разговорного голоса в общий доступ в соцсетях. И в целом минимизировать количество персональной информации, публикуемой онлайн.
И в случае любых подозрительных действий - постарайтесь дозвониться по реальному номеру». Фарид также отметил, что текущие версии ИИ-генераторов не позволяют с высокой степенью убедительности воспроизводить широкий диапазон эмоций, но в теории могут имитировать крик или плач. Средний размер ущерба для семей составляет 11 тысяч долларов - это не говоря уж об острых эмоциональных переживаниях. В ФБР также считают, что в большинстве своём «виртуальные похитители» звонят из Мексики , а в качестве жертв чаще всего выбирают представителей латиноамериканских сообществ.
Свое мнение по поводу сгенерированного видео с использованием лица главы города высказал анонимный источник из мэрии Волгограда. То, что сделано с лицом Владимира Марченко, можно отнести скорее ко второму направлению, — говорит сотрудник администрации города. И если рассматривать это как элемент искусства, то для выбора кандидатуры в этих целях необходимо для фактора: узнаваемость героя, чье лицо применяется в дипфейке, и достаточное количество разных изображений для того, чтобы искусственный интеллект смог с ними работать. Собеседник редакции уверен, что выбор Владимира Марченко для создания таких видео, объясняется его узнаваемостью и популярностью среди жителей Волгограда и пользователей соцсетей. Однако отдельные волгоградцы в комментариях под публикацией этих дипфейков неоднократно писали о том, что не знают человека, чье лицо использовано в видео. И получая ответ на вопрос о герое дипфейка, искренне радовались, ведь наконец узнали, как выглядит глава Волгограда.
И ни горожанам, ни представителям властей не стоит беспокоиться, когда подобный контент несет лишь положительный характер. Героем подобного дипфейка развлекательного формата стал и бывший глава Тракторозаводского района, политолог, историк и знаменитый полемист Михаил Серенко. На опубликованных в телеграм-канале правозащитника и активиста Алексея Ульянова видео политолог якобы поет известные хиты. Лицо этой публикации — Михаил Серенко — рассказал, почему не воспринимает такие посты в негативном ключе и почему в стране до сих пор распространено мошенничество. Источник: Алексей Ульянов — Если это делается друзьями, а автор видео — мой друг Алексей Ульянов, здесь скрывать нечего, то я только положительно отношусь. Это дружеский прикол. Как отличить умного человека от глупого: у первого развита самоирония, обижаются дураки, — поделился Михаил Серенко. И я придерживаюсь той точки зрения, что если какой-то вид преступления не могут пресечь, то нужно искать погоны, стоящие за этим видом преступления. Если бы силовики захотели, то давно бы прекратились все эти разводы бабушек, использования искусственного интеллекта, но, видимо, пока не хотят приложить достаточно усилий, чтобы это пресечь. По мнению волгоградского полемиста, чтобы минимизировать количество подобных преступлений, необходимо ужесточить меры уголовного наказания.
Потому что срок маленький дают, а вы дайте пожизненный срок за утечку базы данных, они перестанут. Здесь вопрос не в искусственном интеллекте, от него мы никуда не денемся, со временем, в какой-то степени он всех заменит, — рассуждает Михаил Серенко. Даже без этих дипфейковых видео мошенники совершают такие виды преступлений, что волосы на голове дыбом встают. Например, взять какой-то кредит, это сложно, но мошенники с легкостью их оформляют. Любое благое начинание мошенники будут использовать против людей, то же самое и с нейросетями. Как защитить себя от дипфейков? Часто злоумышленники пользуются одной из главных уникальных функций нейросетей — генерированием несуществующих в реальности видео, аудио и изображений, в попытках обмануть не самую внимательную жертву.
По тексту, который ей написали. Похоже, кажется, близкие и родные, конечно, заметят разницу, а вот остальные — нет. Хотя это — стопроцентный фейк. От массового применения нового типа интернет-попрошайничества пока оберегают сами технологии. На создание копии голоса нейросети сейчас нужно много времени. Ну и также стоит понимать, что конечный результат тоже не всегда идеален, приходится что-то обрабатывать", — рассказал Симонян. Подделку голоса можно отличить как раз по чрезмерной обработке. Если в записи сильно шумит ветер, громко едут машины, лают собаки — стоит насторожиться. Но главное: голос нейросети все равно звучит немного механически. Понять это можно, только если вслушаться.
Эксперт предупредил, что мошенники могут подделывать голоса родственников жертв
С помощью специальных программ злоумышленники подделывают голоса родных, друзей или коллег. Мошенники научились подделывать человеческий голос для более эффективного вымогательства. По словам Шамиля Магомедова, заведующего кафедрой “Интеллектуальные системы информационной безопасности” Института кибербезопасности и цифровых технологий РТУ МИРЭА, телефонные мошенники действительно научились подделывать голоса людей. В статье рассказывается о том, как мошенники используют технологию подделки голоса для обмана людей и получения доступа к их биометрическим данным. Такая запись голоса может требоваться мошенникам, поскольку качество записи телефонного разговора недостаточно для обучения нейросетей, говорит бизнес-консультант по информационной безопасности компании Positive Technologies Алексей Лукацкий.
Курсы валют
- Курсы валют
- Содержание
- Информационная безопасность операционных технологий
- Материалы по теме
Мошенники с помощью искусственного интеллекта запугивают родителей голосами родных детей
Затем нейросеть, используя полученные данные, создает новые сообщения, с помощью которых мошенник вымогает деньги. Искусственному интеллекту достаточно и трех секунд речи оригинального носителя для того, чтобы дипфейк получился убедительным. Можно качественно подделать тембр и интонацию человека. По словам экспертов, количество таких атак будет только расти: "не исключаем и использование видеозвонков с одновременным синтезом речи и изображения звонящего".
Такая технология применяется сегодня и для создания компрометирующего материала для шантажа, — говорит он. Мошенники также используют голосовой фишинг, они имитируют голос конкретного человека родственника или коллеги.
Они просят перевести деньги таким способом или сообщить код из СМС. С помощью ИИ мошенники могут автоматизировать этот процесс, масштабировать атаки и увеличить их эффективность, — отметил эксперт.
При этом позвонить сыну самостоятельно ошарашенная мать не могла: преступники просили ее все время держать телефон в режиме разговора. Оказалось, что все это время за ней велась слежка. Взяв деньги, злоумышленник испарился, и только потом женщина, придя домой и дозвонившись до сына, выяснила, что все это был большим спектаклем, который разыграли мошенники. Ни в какое ДТП ее сын не попадал.
Полицейские задержали подозреваемого уже через несколько дней, и старались чтобы на очной ставке родственники обманутой женщины не устроили самосуд. Сам же задержанный говорит, что забрать деньги его просто попросили.
Он просит включить режим демонстрации экрана и зайти в мобильное приложение банка. Трансляция экрана позволяет мошенникам увидеть номера карт, суммы на счетах, коды в смс от банка и другую информацию. Данный способ мошенничества появился около двух месяцев назад, рассказывает эксперт по информационной безопасности, генеральный директор Phishman Алексей Горелкин. Алексей Горелкин эксперт по информационной безопасности, гендиректор Phishman «Такой способ был, он применялся на школьниках: покажите, а что у вас за карта, а у ваших родителей какие карты, зайдите к себе в телефон, в общем, была такая схема, чтобы люди, которые не шибко разбираются в цифровых технологиях, но при этом имеют доступ к устройству родителей, могли предоставить злоумышленникам необходимую информацию. Я надеюсь, что такая схема все-таки не самая рабочая, потому что людей должны настораживать такие действия, которые ранее от них не просил ни банк, ни кто-либо еще. Благодаря в том числе просветительской деятельности, все меньше и меньше получается успешных атак. Злоумышленники почему и усложняют свои атаки, делают звонки не с одного номера, а с двух, трех, четырех, там ФСБ как будто звонит, кто-то еще как будто звонит.
Почему они, к примеру, начали теперь просить деньги не переводить или сообщать код из СМС-сообщения, а просят деньги снимать и передавать их человеку? Все потому, что все меньше людей ведутся на их разводки. И поэтому, конечно же, они вынуждены придумывать и ухищряться, делать более сложные схемы, которые не так просто распознать с первого взгляда.
Мошенники научились подделывать голоса. Как не попасться на уловку
Мошенники для обмана россиян стали подделывать голоса родных и знакомых жертвы. Телефонные мошенники научились подделывать не только номера, но и голоса. Эксперты утверждают, чтобы подделать чужой голос нейросети необходим образец. Кроме того, мошенники могут менять голос, имитируя близких людей. Для обмана граждан мошенники начали подделывать голоса родных и знакомых потенциальной жертвы. Об этом, как передаёт 17 января РИА Новости, предупреждает Центробанк. Мошенники вышли на новый уровень: они подделывают не только номера телефонов,но даже голоса звонящих!
Подделали голос внучки. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч
Мир мошенничества с дипфейками С момента своего появления deepfake использовались во вредоносных целях, начиная от подделки политических речей и заканчивая изготовлением порнографических материалов. Однако в последнее время их использование находит все большее применение в мире мошенничества. В последнее время участились случаи мошенничества с использованием искусственного интеллекта, когда человеку звонит или даже звонит по видеосвязи его близкий человек, говоря, что он попал в беду и ему нужны деньги", - рассказывает Бакли. Сведения о человеке берутся из данных, доступных в Интернете. Вместо этого мошенники полагаются на страх и безвыходную ситуацию, когда вы впадаете в панику и не замечаете несоответствий Хотя эти мошеннические действия могут иметь различные формы, обычным форматом является звонок со случайного номера. Собеседник с помощью deepfake выдает себя за члена семьи или человека, который обычно рассчитывает на деньги. Это может быть и голосовое сообщение, когда у звонящего может быть готовый сценарий. В полном звонке мошенника часто бывают большие паузы, когда он заставляет голосовой генератор создавать ответы на задаваемые вопросы. При использовании базовых технологий такие подделки вряд ли будут идеальными, вместо этого предлагается версия голоса, которая может быть немного искажена.
Однако, полагаясь на стрессовую ситуацию, мошенники надеются, что люди не заметят этого или сочтут, что звонящий находится в состоянии стресса. Как бороться с дипфейками По мере того как эти мошенничества становятся все более распространенными, возникает вопрос как о том, как лучше с ними бороться, так и о том, могут ли люди сделать что-то, чтобы меньше подвергаться их воздействию. Легко быть критичным, когда это происходит не с вами, но в реальной ситуации это трудно.
Босс позвонил своему подчиненному и попросил его незамедлительно перевести 243 тысячи долларов поставщику из Венгрии. Руководитель британской фирмы не сомневался, что разговаривает со своим руководителем, он узнал акцент и тембр голоса начальника.
При этом мошенники звонили британцу несколько раз. После получения первого платежа они сказали, что якобы немецкая компания отправила британской сумму на возмещение убытков.
Только совокупность корректных данных позволит открыть доступ к управлению счетом или другими услугами Шамиль МагомедовIT-эксперт «Кроме того, представители банковских структур не раз подчеркивали, что операторы, принимающие звонок, также снабжены подробными инструкциями и могут различить "красные флажки", сигнализирующие о возможных мошенниках», — отметил собеседник. Цифровая гигиена При этом Магомедов напомнил, что забывать о простых правилах цифровой гигиены не стоит. Если вашего голоса нет в базах данных, и вы не дали согласие на доступ к своим данным с помощью биометрии, то и преступники не смогут "притвориться" вами», — сообщил эксперт. Во-вторых, следует внимательно относиться к тому, кто и с какого номера звонит.
В этом вопросе лучше проявить осторожность и сбросить подозрительный звонок, особенно если он идет через мессенджер, связавшись с банком самостоятельно по официальному телефону, указанному на обороте банковской карты.
А спустя полчаса явился курьер и забрал деньги. Администратор позже решила всё же убедиться, что всё сделала правильно, и написала в рабочий чат. Тогда обман и вскрылся. Ей сообщили, что директор в отпуске, более того, у них не принято так отправлять деньги.
Мошенник подделал голос друга и выманил 50 000 ₽
Периодически мошенники предлагают призы, кэшбэк и прочие денежные вознаграждения после оплаты неких «комиссий». Копировать ссылкуСкопировано.
Мы побеседовали с Оли Бакли, профессором кафедры кибербезопасности Университета Восточной Англии, чтобы узнать больше об этих новых мошенничествах. Что такое deepfake? Хотя мошенничества продолжают существовать в самых разных формах, эти новейшие разработки, как правило, опираются на технологию, известную как дипфейк. Используя алгоритм искусственного интеллекта, они создают контент, который выглядит или звучит реалистично.
Это может быть видео или даже просто аудио Бакли Им требуется очень мало обучающих данных, и они могут создать нечто достаточно убедительное с помощью обычного ноутбука, который может купить каждый По сути, дипфейки берут примеры видео- или аудиозаписей, и учатся точно воссоздавать их движения или голос. Это может быть использовано для того, чтобы поместить лицо на тело другого человека, заставить его голос читать определенный текст или же совершать вредоносные действия. Несмотря на то, что технология кажется сложной, на самом деле сделать дипфейк самостоятельно на удивление просто. Для этого достаточно иметь в открытом доступе видеозапись или запись голоса и недорогое программное обеспечение. Это занимает секунды, а не минуты или часы, и любой, у кого есть немного времени и доступ к YouTube, может понять, как это сделать", - объясняет Бакли. Появились удивительные технологии, которые еще недавно были бы научной фантастикой.
Это прекрасно для инноваций, но есть и обратная сторона, когда эта технология попадает не в те руки". Мир мошенничества с дипфейками С момента своего появления deepfake использовались во вредоносных целях, начиная от подделки политических речей и заканчивая изготовлением порнографических материалов.
Для этого мошенникам требуется образец голоса, который без труда можно найти в мессенджере, где практически все пользователи отправляют голосовые сообщения. Подделка голоса осуществляется при помощи различных сервисов и программ, способных создавать голосовые аналоги человека на основе записанных образцов. Качество синтезированного голоса зависит от точности и количества записанных образцов.
Благодаря современным технологиям, хакерам достаточно всего 20-секундного фрагмента разговора для создания копии голоса любого человека. Мошенники добывают образцы голоса потенциальной жертвы разнообразными методами: используют общедоступные аудио- и видеозаписи из интернета, а также данные, полученные при утечках биометрической информации. Кроме того, они могут записать голос человека, просто позвонив ему, и использовать диктофон для записи. Иногда мошенники получают доступ к аккаунту пользователя в мессенджере, применяя различные методы, такие как фишинг и социальная инженерия. Получив доступ к переписке, злоумышленники извлекают голосовые сообщения и загружают их в специальную систему, функционирующую на базе ИИ.
Эта система затем анализирует голосовые образцы и учится имитировать особенности речи человека. Могут ли мошенники позвонить в банк и украсть деньги? С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет. Однако ведущие российские банки не используют систему управления счетом с помощью голоса. Например, в СберБанке в качестве биометрического идентификатора для проведения платежных операций используется не голос, а лицо человека.
Посты не по тематике сообщества, а также недоказанные случаи мошенничества в случае обвинения какого-либо лица или организации. Кликабельные ссылки на магазины и прочие бизнес-проекты. Если Вам нужно сослаться на подобный ресурс — вставляйте пробелы вокруг точек: pikabu. Пошаговые, излишне подробные мошеннические схемы и инструкции к осуществлению преступной деятельности. Мотивация к мошенничеству, пожелания и советы "как делать правильно".
ЦБ: мошенники стали обманывать россиян, подделывая голоса их родных
С помощью поддельного голоса подруги мошенники смогли похитить браслет Bulgari стоимостью полмиллиона у простой и безработной студентки из Москвы. Чтобы мошенники не подделали ваш голос и не позвонили кому-то от вашего имени, не разговаривайте с незнакомыми людьми по телефону и не называйте слова "да" и "нет". сказал Пермяков, отметив, что пока злоумышленники чаще всего ограничиваются подделкой голоса. Такая запись голоса может требоваться мошенникам, поскольку качество записи телефонного разговора недостаточно для обучения нейросетей, говорит бизнес-консультант по информационной безопасности компании Positive Technologies Алексей Лукацкий. Телефонные мошенники научились подделывать голоса, ЦБ РФ предупредил о новых видах мошенничества с нейросетями в Волгограде.
Материалы по теме
- ЦБ: мошенники стали обманывать россиян, подделывая голоса их родных
- Новый прием мошенников: синтез голоса
- Можно ли распознать по голосу телефонного мошенника?
- Как мошенники используют голосовые дипфейки и как защититься от такого обмана
- Могут ли мошенники подделать голос и украсть деньги со счета?
Мошенники с помощью искусственного интеллекта запугивают родителей голосами родных детей
Номер можно подменить - на смартфоне он будет определяться как знакомый. Также мошенники могут создать похожий аккаунт мессенджера", - сказал Пермяков, отметив, что пока злоумышленники чаще всего ограничиваются подделкой голоса. Кража голосов Программы, с помощью которых можно синтезировать голос выбранного человека, уже широко распространены, предупредил эксперт. При этом все большую роль в этой сфере начинают играть нейросети - в ближайшее время с их помощью можно будет подделать внешность человека, что снизит доверие пользователей к видеозвонкам, считает он. Для последующего воссоздания речи достаточно всего нескольких минут качественной аудиозаписи, поэтому разговаривать с незнакомцами по телефону не рекомендуется, отметил Пермяков.
Кроме того, они могут записать голос человека, просто позвонив ему, и использовать диктофон для записи. Иногда мошенники получают доступ к аккаунту пользователя в мессенджере, применяя различные методы, такие как фишинг и социальная инженерия. Получив доступ к переписке, злоумышленники извлекают голосовые сообщения и загружают их в специальную систему, функционирующую на базе ИИ.
Эта система затем анализирует голосовые образцы и учится имитировать особенности речи человека. Могут ли мошенники позвонить в банк и украсть деньги? С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет.
Однако ведущие российские банки не используют систему управления счетом с помощью голоса. Например, в СберБанке в качестве биометрического идентификатора для проведения платежных операций используется не голос, а лицо человека. Банки сохраняют ваш голос в биометрической базе только для того, чтобы автоматически распознавать его при звонках в техническую службу поддержки банка.
К тому же существует опасение, что мошенники запишут ваш голос и передадут в Единую биометрическую систему или биометрические системы банков. Однако, несмотря на возможность утечки биометрии из банковского хранилища, использовать ее для несанкционированной идентификации невозможно. Причина состоит в самом процессе идентификации.
Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков.
Мужчина объяснил, что со счетов Александры якобы пытались перевести около 100 000 рублей в пользу Украины и ВСУ. Затем женщине сообщили об уголовной ответственности за разглашение информации о расследовании без согласия следователя и взяли с неё устное обещание никому не рассказывать о звонке. После этого Александру убедили в необходимости сотрудничать с последующими собеседниками. Женщина согласилась, и вскоре ей снова позвонили. На этот раз очередной незнакомец утверждал, что является сотрудником службы безопасности Центробанка РФ. Он убедил Александру рассказать о своих счетах и суммах, которые на них хранятся. Потом женщине объяснили, что деньги необходимо переместить на новый «безопасный счёт».
Кроме того, врача убедили взять кредит для погашения якобы оформленных на неё заявок в нескольких банках. Александра послушно следовала советам и 20 июля отправилась в банк.
Евгения Егорова, в одном мошенническом сценарии злоумышленники заставляли детей отдавать курьерам сбережения семьи, используя смоделированный голос родственника. Среди других распространенных способов мошенничества с использованием дипфейков и социальной инженерии Мельников назвал обход систем безопасности в сервисах с голосовой идентификацией, а также создание видеоконтента с использованием лиц и голосов знаменитостей. Последний способ, к примеру, используют для «продвижения» несуществующих инвестиционных проектов, добавляет старший исследователь данных «Лаборатории Касперского» Дмитрий Аникин. Сами данные для подделки голоса собираются в процессе обычного телефонного разговора злоумышленника с жертвой, поясняет он. По словам Семенычева, мошеннические схемы, связанные с подделкой изображения или видео, распространены в меньшей степени, так как более сложны и ресурсоемки.
Такие активности в основном направлены на нанесение репутационного ущерба, уточняет он. При этом в действующей практике использование дипфейков чаще встречается не для имитации клиента или его знакомого, а для сокрытия внешности преступника, чтобы было невозможно установить его личность и задокументировать следы преступления, поясняет представитель ВТБ. В таких случаях чаще используются «личности» известных актеров или политиков, а также случайных пользователей, не связанных с атакуемым клиентом, уточняет он.