Злоумышленники стали применять технологии ИИ для генерации голосовых сообщений и отправки их жертвам от имени знакомых и родных при помощи популярного мессенджера WhatsApp. Нижнекамка в «Ватс Апе» разослала голосовое сообщение и отправила нескольким знакомым. Глава региона сообщил о новом фейке – недоброжелатели начали подделывать его голос и рассылать голосовые сообщения жителям Белгородской области. Смотрите видео на тему «как сделать фейк голосовое сообщение» в TikTok (тикток).
Молчание – безопасность
- Скачать WhatsMock – создать фейк переписку WhatsApp 1.13.4 для Android
- Захарова заявила, что Россия продолжит открывать глаза миру на украинские фейки
- Жителей Воронежской области по радио напугали фейком про всеобщую мобилизацию - Новости
- Жителей Воронежской области по радио напугали фейком про всеобщую мобилизацию
- «Сохраняйте бдительность»
Харламов опроверг фейки о заявлениях про Украину
В мессенджерах распространяется голосовое сообщение, в котором неизвестный мужчина рассказывает о якобы скором введении комендантского часа в Тюменской области, перекрытии дорог и о том, что в регион стягивают военных. Мошенники научились подделывать голосовые сообщения в мессенджере «Телеграм» с помощью искусственного интеллекта (ИИ). Злоумышленники для упрощения своей мошеннической деятельности стали чаще использовать нейросеть ChatGPT, пишут «Известия». Основное внимание при этом направлено на создание голосовых дипфейков. Эти голосовые сообщения значительно расширяют возможности злоумышленников использовать подделки. Это сделало опасным использование голосовых сообщений и отправку видео, заявил эксперт по сетевым угрозам компании «Код Безопасности» Константин Шуленин.
В WhatsApp мошенники стали подделывать голосовые сообщения
Кроме того, по его признанию, мошенники научились применять нейросети для того, чтобы писать людям более живые, реалистичные сообщения или письма. По его словам, мессенджеры и соцсети остаются популярным каналом атак на россиян.
После обновления функции голосовых сообщений мошенники начали распространять под предлогом их получения вирус для кражи личных данных. Потенциальная жертва получает на электронную почту уведомление о голосовом сообщении, пришедшем на WhatsApp, в которое встроена кнопка «Воспроизвести» и указана продолжительность аудиозаписи. Затем пользователь должен подтвердить, что он не робот и нажать «Разрешить».
На прошлой неделе функция получила некоторые обновления, чем не преминули воспользоваться мошенники. Жертве приходит по электронной почте уведомление якобы от WhatsApp о получении нового голосового сообщения. В уведомление встроена кнопка «Воспроизвести» и аудиодорожка с указанием продолжительности аудиозаписи. Отправитель, замаскированный под сервис Whatsapp Notifier, использует электронный адрес «Центра безопасности дорожного движения Московской области».
Об этом рассказал руководитель команды разработки супераппа Gem Space Ваге Закарян. По словам эксперта, злоумышленники добывают аудиосообщения пользователей, взламывая их социальные сети и мессенджеры.
Затем они используют нейросети, чтобы на основе тех голосовых сообщений создать новые с просьбами о помощи. Эти подделки мошенники рассылают родственникам и знакомым своей жертвы.
Харламов опроверг фейки о заявлениях про Украину
В "сообщении" президент РФ якобы заявлял о наступлении ВСУ на ряд областей России и всеобщей мобилизации. По радио и ТВ транслировали экстренное обращение Путина – оказалось, это фейк. Это сделало опасным использование голосовых сообщений и отправку видео, заявил эксперт по сетевым угрозам компании «Код Безопасности» Константин Шуленин. Смотрите видео онлайн «КАК ОТПРАВИТЬ ФЕЙКОВОЕ ГОЛОСОВОЕ СООБЩЕНИЕ ВКОНТАКТЕ» на канале «Мастерство в Искусстве» в хорошем качестве и бесплатно, опубликованное 13 сентября 2023 года в 1:34, длительностью 00:01:17. Все письма и голосовые сообщения о внезапном банкротстве, просьбы о срочном переводе денежных средств или предоставлении личной информации нужно дважды или трижды проверять через альтернативные источники.
ВАМ МОЖЕТ БЫТЬ ИНТЕРЕСНО:
- "Лаборатория Касперского" выявила атаку по рассылке поддельных голосовых сообщений
- Новый фейк о коронавирусе опровергли в Менделеевске
- Открытки и видео в мессенджерах заражают смартфон вирусом
- Подписка на дайджест
Мошенники начали подделывать голоса россиян с помощью ИИ
В конце февраля — начале марта пользователи соцсетей и эксперты по кибербезопасности рассказали , что злоумышленники начали также подделывать видеосообщения в мессенджерах например, «кружочки» в Telegram. Самый известный случай произошел в феврале в Гонконге. Сотрудник одной финансовой компании получил якобы от руководителя сообщение, в котором была просьба перевести крупную сумму со счета организации. Эта просьба смутила жертву, но чтобы развеять сомнения, мошенники пригласили его на видеоконференцию, в которой принимали участие и другие сотрудники компании. Но все они, кроме жертвы, использовали технологию подмены голоса и видео. Компания из-за этого обмана потеряла 25,6 млн долларов. Топ 3 дебетовых карт Откуда у мошенников образцы голосов и изображения людей Подменные видео и аудио мошенники получают с помощью нейросетей. Однако для их обучения требуются образцы голосов и изображения людей — чем больше, тем качественнее получится подмена.
Мошенники берут всю информацию из открытых источников — в первую очередь, из соцсетей. Например, в случае с гонконгской компанией сотрудники, именами которых воспользовались мошенники, активно вели свои страницы — выкладывали видеолекции со своим участием и личные фотографии. Как распознать подмену Распознать подмену голоса или видео на современном этапе сложно, но возможно. Руководитель департамента информационной безопасности Банки.
В сообщении она утверждала, что скоро Нижнекамск будет закрыт на карантин из-за коронавируса.
Спустя время она узнала, что сообщение разлетелось по разным чатам. Тогда она сообщила знакомым, что это неправда, и пришла в нижнекамскую телерадиокомпанию, чтобы опровергнуть фейковую новость.
Для этого достаточно было хотя бы раз поговорить с ними по телефону. Поэтому специалисты убедительно просят не доверять войсам «на слово». Необходимо всегда перезванивать человеку, от которого они к вам пришли, и всё уточнять лично. Особенно должно насторожить голосовое, полученное от человека, который обычно общается текстом.
Все, что вам нужно для создания голосового клона, — это доступ ко множеству записей вашей цели. Чем больше у вас данных и чем лучше качество звука, тем лучше будет итоговый голосовой клон. И для многих руководителей крупных фирм такие записи могут быть легко собраны из телефонных звонков, интервью и публичных речей. При достаточном количестве времени и данных аудио высочайшего качества станут гораздо более убедительны, чем в примере выше. Очевидно, что телефонные мошенники вышли на новый уровень и качество обмана будет только расти.
Ранее в этом году FTC предупредил о росте таких мошенников, но эксперты говорят, что есть один легкий способ победить их. Герберта Вертхайма, все, что вам нужно сделать, это положить трубку и перезвонить человеку. Повесьте трубку и перезвоните.
Голосовые сообщения об обстрелах приграничных территорий — это фейк
В "сообщении" президент РФ якобы заявлял о наступлении ВСУ на ряд областей России и всеобщей мобилизации. По радио и ТВ транслировали экстренное обращение Путина – оказалось, это фейк. «Радиостанция подверглась хакерской атаке», — говорилось в сообщении «Коммерсантъ FM». Фейки в социальных сетях, как одна из главных примет и опасностей нашего времени.
Фейк: аудиофайл «Разговор Путина и Кадырова» взломал банковские приложения россиян
Вопрос в содержании, а не в формате. А если голосовое сообщение пришло в SMS? Как ранее предупреждали в МВД, абоненту, например, могут приходить SMS о том, что он получил голосовое поздравление с праздником. В ведомстве напоминают, что настоящие голосовые сообщения являются бесплатными для получателя.
Это сообщение стало вирусным в Казнете еще в январе 2022 года. Тогда его распространяли от имени Комитета национальной безопасности РК.
Тогда же ведомство сообщило, что все это ложь и никаких «новых правил коммуникации» в нашей стране нет. Сейчас же эта рассылка, только без упоминания в тексте Комитета национальной безопасности РК, распространяется в России.
WhatsApp не входит в реестр «распространителей информации» и не обязан хранить переписку и голосовые записи. А слова про «устройства, подключенные к системам CDMX» — вообще, судя по всему, тонкий троллинг.
Из-за этого письмо не блокируется средствами безопасности, и потому что адрес является подлинным. Он якобы должен подтвердить, что не робот и нажать на кнопку «Разрешить». После этого в систему загружается вредоносное ПО. Мошенническую схему нашли специалисты компании по информационной безопасности Armorblox.
В WhatsApp мошенники стали подделывать голосовые сообщения
На самом деле мы никогда не слышали звукового мошенничества. До сих пор. Об этом сообщает The Verge. Читайте «Хайтек» в Консалтинговая фирма по безопасности NISOS выпустила отчет, в котором анализируется одна из попыток телефонного мошенничества, и поделилась фрагментом аудио с Motherboard. На приведенном ниже клипе слышен голос, похожий на голос генерального директора компании, который просит сотрудника «немедленно оказать помощь в завершении срочной коммерческой сделки».
Это фрагмент сообщения из голосовой почты, которую получи сотрудник технической фирмы. Название компании не раскрывается. Запись голосового сообщения Качество конечно не отличное.
Затем они скачивают сохраненные голосовые сообщения и создают новые сообщения с нужным контекстом. В итоге они рассылают эти сообщения в личные и групповые чаты, подкрепляя их сгенерированными голосовыми сообщениями и отфотошопленными банковскими картами с поддельными именами получателей. В полиции советуют: "Если вы подозреваете, что ваша анкета была взломана, то необходимо заблокировать ее и сообщить администраторам ресурса об этом как можно скорее. Используйте безопасные веб-сайты, в том числе интернет-магазинов и поисковых систем. Используйте сложные и разные пароли.
От массового применения нового типа интернет-попрошайничества пока оберегают сами технологии. На создание копии голоса нейросети сейчас нужно много времени. Ну и также стоит понимать, что конечный результат тоже не всегда идеален, приходится что-то обрабатывать", — рассказал Симонян. Подделку голоса можно отличить как раз по чрезмерной обработке. Если в записи сильно шумит ветер, громко едут машины, лают собаки — стоит насторожиться. Но главное: голос нейросети все равно звучит немного механически. Понять это можно, только если вслушаться. Вот только мошенники часто берут жертв на испуг — имитируют ситуации, когда деньги нужны срочно. Запись голоса они могут получить даже у самого осторожного человека, просто позвонив по телефону с каким-нибудь опросом. Вполне возможно, совсем скоро голос робота в трубке, предупреждающий, что ваш разговор может быть записан, заставит быстро закончить беседу.
Про указ, который подпишет Владимир Путин, означающий всеобщую мобилизацию, воронежцы еще не слышали. До этого по радио предупреждали о том, что из-за воздушной атаки врага нужно срочно спрятаться в укрытия. Конечно, все аналогичные сообщения — фейк. Официально сообщаем, что ситуация в регионе продолжает оставаться контролируемой властями и правоохранительными органами.
Голосовые сообщения об обстрелах приграничных территорий — это фейк
Вымогатели научились с помощью искусственного интеллекта подделывать голосовые сообщения владельца аккаунта в Telegram. Мошенники стали использовать для вымогательства денег созданные ИИ голосовые сообщения от имени владельца аккаунта в соцсетях или мессенджерах. "Техно": мошенники стали подделывать голосовые сообщения пользователей в Сети. Страна и мир - 10 сентября 2023 - Новости Саратова -
Молчание – безопасность
- Депутат Гурулев назвал фейком голосовое сообщение о готовящемся нападении на Казахстан
- Как мошенники записывают голоса других людей?
- Нет комментариев
- "Лаборатория Касперского" выявила атаку по рассылке поддельных голосовых сообщений
- Украли голос
Голосовой помощник Алекса предсказывает дату начала Третьей мировой войны. Разбор фейка
Термин получил распространение с развитием нейросетей, но поначалу касался только видео — искусственный интеллект позволил делать визуальные цифровые копии людей, что стали применять в рекламе, мошенничестве и порнографии. Есть немало примеров, когда мошенники шантажировали своих жертв при помощи сгенерированных порно - дипфейков с ними. Фото: FreePik Те, кто любит разыгрывать звонящих им мошенников - в опасности. Их голос может записываться С голосом примерно та же схема, только здесь чаще всего жертвами становятся не сами владельцы голосов, а их друзья, знакомые и родственники. Например, при помощи голосового дипфейка можно вымогать деньги. Все только начинается На проблему безопасности голосов россиян обратили внимание эксперты ИБ-компании Angara Security. Они сообщил CNews, что объявления с набором актеров озвучания стали появляться на крупнейших платформах размещения вакансий , а также в Telegram. Некоторые «ортодоксальные» мошенники по-прежнему полагаются на обзвоны — они звонят совершенно незнакомым людям и предлагают им работу. Однако нет никакой гарантии того, что даже во время этого телефонного разговора не ведется запись, которая в дальнейшем превратится в виртуальную копию голоса. В отчете Angara Security сказано, что голосовыми данными россиян мошенники интересуются не первый год, но с течением времени их интерес с к ним крепнет.
Кроме того, эта рассылка, только без упоминания в тексте Комитета национальной безопасности, распространялась в России. Там ее также опровергли, сообщив, что содержащаяся в ней информация — ложь. Важно отметить, что в том виде, в котором текст распространяется сейчас, он обладает практически всеми признаками фейка. В нем не указаны даты, страна, в которой якобы будут введены "новые правила коммуникации", и нет ссылки на источник.
Кроме того, важно ограничивать доступ к профилю, чтобы личную информацию пользователя могли видеть только его доверенные люди. Как распознать мошенника, признаки обмана Между тем пока еще голосовые дипфейки можно выявить по ряду признаков. По словам Сергея Голованова, если вы разговариваете с человеком во время звонка в реальном времени, то отличить речь знакомого человека от подделки будет довольно просто. Правда, злоумышленники обычно звонят по «экстренным» причинам, поэтому потенциальным жертвам не всегда удается мыслить логически, — говорит в беседе с «Известиями» Александр Самсонов. В то же время, по словам Самсонова, в ситуациях, когда вам «экстренно» звонит тот, кто представляется вашим близким человеком, стоит обращать внимание на ряд моментов. Во-первых, если ваш друг, родственник или знакомый раньше никогда не просил по телефону переводить ему деньги или сообщать какую-то важную информацию, то подобная просьба — это повод насторожиться. Поскольку злоумышленники нередко звонят ночью, многие люди, особенно старшего возраста, «стесняются» позвонить близким и узнать, всё ли с ними в порядке. Поэтому стесняться не надо — пусть лучше произойдет небольшой конфликт с близким, чем мошенники выманят крупные суммы денег. Причем то же самое правило касается общения не только по телефону, но и в мессенджерах. В заключение специалист рекомендует отключить звук или возможность звонить для неизвестных номеров в настройках конфиденциальности мессенджеров, чтобы злоумышленники не могли позвонить с поддельного аккаунта.
Хотя это — стопроцентный фейк. От массового применения нового типа интернет-попрошайничества пока оберегают сами технологии. На создание копии голоса нейросети сейчас нужно много времени. Ну и также стоит понимать, что конечный результат тоже не всегда идеален, приходится что-то обрабатывать", — рассказал Симонян. Подделку голоса можно отличить как раз по чрезмерной обработке. Если в записи сильно шумит ветер, громко едут машины, лают собаки — стоит насторожиться. Но главное: голос нейросети все равно звучит немного механически. Понять это можно, только если вслушаться. Вот только мошенники часто берут жертв на испуг — имитируют ситуации, когда деньги нужны срочно. Запись голоса они могут получить даже у самого осторожного человека, просто позвонив по телефону с каким-нибудь опросом.