Мошенники воруют голосовые сообщения, а потом с их помощью выманивают деньги у близких и знакомых жертв.
Мошенники вышли на новый уровень и стали подделывать голосовые сообщения
Напролом И: Мошенники научились подделывать голосовые сообщения. Член комитета Госдумы по обороне генерал Андрей Гурулев назвал фейком информацию о том, что Россия якобы планирует военную операцию в Казахстане. Это сделало опасным использование голосовых сообщений и отправку видео, заявил эксперт по сетевым угрозам компании «Код Безопасности» Константин Шуленин. На оперативном штабе по коронавирусу опровергли информацию, которая передается голосовым сообщением в мессенджерах. Поводом для распространения таких фейков стал, так называемый, «Закон Яровой», принятый в 2016 году.
Погода и точка
- Гладков предупредил белгородцев о мошенниках
- Погода и точка
- Голосовые сообщения об обстрелах приграничных территорий — это фейк - Таганрогская правда
- Мошенники научились подделывать голоса и видео. Как распознать подмену
- Погода и точка
- «Скинь денег срочно». Мошенники научились подделывать голоса ваших друзей
Хакатон «Разработка алгоритмов генерации голосовых фейков»
Правда ли, что в рассылаемых через WhatsApp открытках содержится вирус? Ответ на вопрос — в Stopfake. Пользователи пишут, что в них содержатся вредоносные коды, которые могут нанести непоправимый вред смартфону. Внимание следует обратить на то, что конкретная дата не указана, а это является одним из признаков фейкового сообщения.
Эти подделки мошенники рассылают родственникам и знакомым своей жертвы. Для борьбы с таким новым способом эксперт посоветовал предавать его большей огласке, а также не записывать длинных сообщений, а лучше даже удалять их после прослушивания собеседником. Киберпреступники часто атакуют не только в период новогодних каникул, но и после их окончания. Директор по стратегическим альянсам и взаимодействию с органами государственной власти группы компаний «Гарда» Павел Кузнецов рассказал о самых опасных кибератаках в первую неделю нового года.
Установлено, что данная киберкампания была запущена 28 марта; мобильного трояна вначале выдавали за софт для защиты от спама. По состоянию на 24 апреля зловреда детектируют 16 из 65 антивирусов коллекции VirusTotal.
Подписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.
Пользователи пишут, что в них содержатся вредоносные коды, которые могут нанести непоправимый вред смартфону. Внимание следует обратить на то, что конкретная дата не указана, а это является одним из признаков фейкового сообщения. С формулировкой "завтра" его можно распространять совершенно в любое время, и оно не утратит своей актуальности, что делает фейк универсальным, — говорится в материале Stopfake. В СМИ и на официальных ресурсах, посвященных кибербезопасности, нет никаких сообщений о том, что картинки в WhatsApp могут содержать в себе вредоносные коды и пересылать их нельзя.
По радио и ТВ транслировали экстренное обращение Путина – оказалось, это фейк
Статья автора «Телеканал 360 и Онуфриенко» в Дзене: Голосовое сообщение о планах нападения России на Казахстан — фейк. Губернатор напомнил белгородцам, что никогда не рассылает голосовые сообщения. Участникам было предложено разработать алгоритм генерации голосового дипфейка – программы, которая копирует голос конкретного человека. После обновления функции голосовых сообщений мошенники начали распространять под предлогом их получения вирус для кражи личных данных. Серия коротких голосовых сообщений также позволяет скрыть недочеты, но если человек не использует такой способ общения в обычной жизни, то это насторожит скорее жертву. Юморист Гарик Харламов заявил, что голосовые сообщения о его «стыде за Россию» являются фейком, и подчеркнул, что гордится своей страной и национальностью.
Поддельная функция голосовых сообщений WhatsApp распространяет инфостилер
Все это попытка раскачать ситуацию с нашими друзьями», — отметил Гурулев. Ранее в украинских Telegram-каналах распространяли голосовое сообщение, якобы записанное самим генералом, в котором отмечалось, будто Россия готовится в будущем атаковать Казахстан. По данным проекта «Лапша Медиа», голос Гурулева с высокой вероятностью был сгенерирован нейросетью.
Голосовое сообщение Гурулева про атаки России на Казахстан создала нейросеть 6 апреля Голосовое сообщение о планах нападения России на Казахстан — фейк.
Такое заявление сделал депутат Госдумы генерал-лейтенант Андрей Гурулев в обращении, опубликованном в его официальном Telegram-канале. Unsplash Unsplash «Это фейк, хамство.
Если пользователь вводит свои данные и нажимает кнопку "войти в систему", то данные попадают на мошеннический ресурс, а пользователь для придания достоверности происходящему, перенаправляется на сайт с описанием реального сервиса голосовых сообщений для бизнеса. Пользователь видит уведомление, в котором сообщается, что для их получения ему нужно перейти по ссылке и ввести данные от корпоративного аккаунта на странице аутентификации - на самом деле поддельной", - добавили в пресс-службе. По данным экспертов, это делается для получения доступа к конфиденциальным и коммерческим данным, так как атаки проводятся именно на корпоративных пользователей.
Эффективным способом защиты от этого вида угроз является многофакторная аутентификация, а еще лучше, когда она используется в сочетании с софт-токеном в мобильном приложении-аутентификаторе, а не с кодом в sms.
Это свидетельствует о высокой степени изощрённости и планирования таких атак. Представители «ВКонтакте» подчеркнули, что подобные массовые мошеннические схемы на их платформе отсутствуют.
Для борьбы с такими угрозами компания использует системы безопасности, в том числе автоматические инструменты на основе ИИ, которые способны оперативно реагировать на обращения пользователей. После кражи аккаунта мошенники скачивают сохранённые голосовые сообщения пользователя и с помощью ИИ создают поддельные аудиозаписи с нужным содержанием. Диана Селехина, эксперт центра мониторинга внешних цифровых угроз Solar AURA ГК «Солар», сообщила о значительном росте числа случаев мошенничества в Telegram, связанных с кражей аккаунтов.
Она добавила, что за последние 30 дней было выявлено более 500 новых доменных имён, созвучных с названием мессенджера, что указывает на активизацию мошенников.
"Лаборатория Касперского" выявила атаку по рассылке поддельных голосовых сообщений
«Радиостанция подверглась хакерской атаке», — говорилось в сообщении «Коммерсантъ FM». Затем мошенники скачивают сохраненные голосовые сообщения и с помощью сервисов искусственного интеллекта синтезируют новые «голосовушки» с необходимым контекстом, указал Егоров. Смотрите видео на тему «как сделать фейк голосовое сообщение» в TikTok (тикток).
Голосовым сообщениям больше нельзя доверять
Как пояснили в Центробанке РФ, мошенники могут собрать его на основании тех данных, которые сам пользователь разместил в Сети, используя информацию о родственниках и друзьях, работе или досуге. Никогда не пересылайте в мессенджерах и социальных сетях сведения из документов, не вводите свои данные на сомнительных сайтах. Не нужно совершать какие-либо денежные операции по просьбе позвонившего незнакомца», — отметили представители регулятора. В случае любых сомнений в Центробанке РФ рекомендуют связаться с человеком, от имени которого вам позвонили, и уточнить у него всю информацию. Фабрика дипфейков: как подделывают голоса Как рассказал «Известиям» ведущий эксперт отдела разработки и тестирования компании «Код безопасности» Александр Самсонов, подделывать голос можно с помощью большого количества сервисов и программ, которые способны генерировать голос человека по записанному образцу. При этом «похожесть» синтезированного голоса зависит от качества и объема записанных образцов. Консультант по информационной безопасности компании R-Vision Карэн Багдасарян дополняет, что в генерации голосовых дипфейков большую роль играет искусственный интеллект ИИ.
При помощи нейросетей преступники могут воспроизвести интонацию, ритм и особенности речи конкретного человека, чтобы создать убедительное аудиосообщение. Это, конечно, люди старшего возраста. В то же время рискуют и родственники публичных людей, поскольку образцы голосов звезд легче найти в открытом доступе, — поясняет Александр Самсонов. Например, у родителей действительно может быть непутевый сын, который попадает в плохие истории.
Татьяна Красногорская пояснила, что голос человека с точки зрения права относится к биометрическим персональным данным и подлежит шифрованию. Эксперт добавила, что если голос попал в руки мошенников из-за утечки данных оператора связи или банка, можно подать иск в суд о компенсации морального вреда, но ее сумма будет формальной — в среднем до 10 тыс. Он подчеркнул, что каждое обращение в правоохранительные органы оказывает вклад в борьбу с мошенничеством и помогает защитить других людей. Его коллега, юрист по интеллектуальной собственности Сергей Пьянков также отметил, что не стоит медлить с походом в полицию, а если такой возможности нет, можно подать заявление онлайн через сайт МВД России.
Он напомнил, что в России в 2022 году по указу президента создали управление по борьбе с киберпреступностью. Главная цель этого подразделения МВД — предупреждение, выявление, пресечение и раскрытие преступлений и иных правонарушений в сфере информационных технологий. А если я согласен на запись своего голоса? Если человек заранее дает согласие на запись своего голоса, например, как в случае с объявлениями о платной озвучке рекламы или фильмов, очень важно составить договор. Анна Лапа отметила, что схемы с использованием голоса для хищения денег, конечно же, незаконны, но раскрыть такие преступления и найти самих мошенников крайне сложно, поэтому профилактические меры пока остаются лучшей защитой. Юрист подчеркнула, что главное — тщательно проверять контрагентов, которые просят вас записать голос, а также внимательно читать условия договора. Анна Лапа дала читателям «Постньюс» следующие рекомендации: обязательно требуйте договор перед записью голоса, не соглашайтесь на сотрудничество «на честном слове» и не отсылайте свои голосовые безымянным пользователям соцсетей; внимательно прочитайте договор перед тем, как его подписать — может случиться, например, что человек разрешил озвучку порнофильмов своим голосом, но сам об этом не знает, так как не прочитал договор; задавайте вопросы и корректируйте договор. Если вы, например, не согласны, чтобы ваш голос использовали в соцсетях компании, то так и пишите; проверяйте вашего контрагента.
Если вы записываете рекламу для условного Сбербанка, но подписываете договор со странным рекламным агентством, это не значит, что вы работаете на Сбербанк; если смутно понимаете, что договор и его условия сомнительны, лучше обратиться к юристу. Как не стать жертвой мошенников?
Ответ на вопрос — в Stopfake. Пользователи пишут, что в них содержатся вредоносные коды, которые могут нанести непоправимый вред смартфону.
Внимание следует обратить на то, что конкретная дата не указана, а это является одним из признаков фейкового сообщения. С формулировкой "завтра" его можно распространять совершенно в любое время, и оно не утратит своей актуальности, что делает фейк универсальным, — говорится в материале Stopfake.
Такое заявление сделал депутат Госдумы генерал-лейтенант Андрей Гурулев в обращении, опубликованном в его официальном Telegram-канале. Unsplash Unsplash «Это фейк, хамство. Нейросети подделывают все, что угодно, поэтому я вас призываю быть бдительными, нас ни с кем не поссорят», — заявил он.
Новый фейк о коронавирусе опровергли в Менделеевске
Глава региона сообщил о новом фейке – недоброжелатели начали подделывать его голос и рассылать голосовые сообщения жителям Белгородской области. канал:Qiwi +79872585391. Чистый Фейк и «Голос Путина». Популярность фейка даже вынудило латвийское Минобороны опубликовать в соцсетях официальное опровержение. Затем они используют нейросети, чтобы на основе тех голосовых сообщений создать новые с просьбами о помощи. Сообщения с предупреждением, что скачанное на мобильный телефон приложение с названием «Разговор Путина и Кадырова» способно взломать приложение российских банков, получили пользователи мессенджеров в России.
Голосовое сообщение Гурулева про атаки России на Казахстан создала нейросеть
В "сообщении" президент РФ якобы заявлял о наступлении ВСУ на ряд областей России и всеобщей мобилизации. По радио и ТВ транслировали экстренное обращение Путина – оказалось, это фейк. Голосовые сообщения распространяются по всей России с просьбой предупредить. Фейк: В нескольких регионах России появились террористы, которые предлагают понюхать пробник духов. канал:Qiwi +79872585391. «Завязав» диалог, мошенники копируют старые голосовые сообщения, что убеждает собеседника, что с ним действительно общается его знакомый или родственник. Участникам было предложено разработать алгоритм генерации голосового дипфейка – программы, которая копирует голос конкретного человека.