Мошенники стали использовать для вымогательства денег созданные ИИ голосовые сообщения от имени владельца аккаунта в соцсетях или мессенджерах. Голосовое сообщение члена комитета Госдумы по обороне, генерала Андрея Гурулева о якобы готовящейся атаке России на Казахстан было создано с помощью искусственного интеллекта. В "сообщении" президент РФ якобы заявлял о наступлении ВСУ на ряд областей России и всеобщей мобилизации. По радио и ТВ транслировали экстренное обращение Путина – оказалось, это фейк.
Поддельная функция голосовых сообщений WhatsApp распространяет инфостилер
Заметим, уловка не нова, такое же прикрытие в начале года использовал MetaStealer. Для верности жертву в заключение еще раз проводят по тому же кругу, но уже в другом домене — n0wpay[. Выбор хостинга для Android-трояна, по словам аналитиков, необычен: это украинский сервис Ucoz, а не российский или европейский дата-центр, которым отдают предпочтение фишеры рунета. Работа осуществляется в фоновом режиме, через 10 секунд после старта иконка исчезает из списка приложений.
И такие фейковые сообщения аферисты рассылают уже со взломанных аккаунтов всему списку друзей человека. Как рассказали в управлении МВД по борьбе с противоправным использованием информационно-коммуникационных технологий, с помощью подделанных нейросетью голосов жертв злоумышленники вымогают деньги у его контактов. На первом этапе преступники взламывают аккаунты Telegram или WhatsApp принадлежит Meta, признана экстремистской, запрещена в РФ с помощью фейковых голосований.
Затем они скачивают сохраненные голосовые сообщения и создают новые сообщения с нужным контекстом. В итоге они рассылают эти сообщения в личные и групповые чаты, подкрепляя их сгенерированными голосовыми сообщениями и отфотошопленными банковскими картами с поддельными именами получателей.
Которые потом проверяются избиркомами и не находятся избиркомами. Это просто фейк, а они даже после того, как им указали, что это фейк, уберите это, они не убирали и продолжали тиражировать. Причем не только чужие, но и собственные производят». Речь, вероятно, о фальсификации, когда активист «Голоса» критиковал уличный пункт для голосования. Но пункт оказался фикцией, декорацией, которую сразу после окончания съемок разобрали, это сняли прохожие. Кроме того, в методичке, слитой в Сеть и, судя по обложке, предназначенной наблюдателям движения, говорится: нет нарушений на выборах — придумайте. Сейчас «Голос» активно собирает данные о возможных нарушениях при подготовке к предстоящим выборам в Госдуму.
Судя по графике, уже 500 жалоб.
Либо же "вшивают" опасную для устройства систему в определенную ссылку, а потом рассылают. Эта схема работает по принципу пирамиды: одна жертва неосознанно втягивает в мошеннический обман своих знакомых, рассылая вредоносную ссылку под видом надежной», — пояснил IT-эксперт. Поэтому важно помнить о безопасности в сети и не поддаваться новым уловкам злоумышленников.
По радио и ТВ транслировали экстренное обращение Путина – оказалось, это фейк
Мошенники воруют голосовые сообщения, а потом с их помощью выманивают деньги у близких и знакомых жертв. Мошенники начали взламывать аккаунты россиян в соцсетях и мессенджерах, чтобы добыть голосовые сообщения. Признанный иноагентом «Голос» усердно тиражировал этот фейк. Тогда же в подмосковном Раменском движение уличили в публикации еще одной лжи — о вбросе бюллетеней.
Харламов опроверг фейки о заявлениях про Украину
Кибермошенники используют ИИ для генерирования голосовых в WhatsApp | Это сделало опасным использование голосовых сообщений и отправку видео, заявил эксперт по сетевым угрозам компании «Код Безопасности» Константин Шуленин. |
МВД: Мошенники крадут образцы голоса из аккаунтов в соцсетях | Как распознать мошенников, обман с голосовыми сообщениями: как понять. |
Захарова заявила, что Россия продолжит открывать глаза миру на украинские фейки | Чтобы отличить голосовой дипфейк, который используют мошенники, следует внимательно прислушаться к смене тона, громкости, несогласованности предложений, посоветовал эксперт по кибербезопасности Евгений Баклушин. |
Голосовое сообщение в мессенджерах - фейк - Официальный сайт газеты "Заря" | Еще новости. Фейк: «Вышки 5G маскируют под сосны, чтобы держать людей в неведении». |
Россиянам рассказали, как мошенники используют их голосовые сообщения и нейросети
Для этого достаточно было хотя бы раз поговорить с ними по телефону. Поэтому специалисты убедительно просят не доверять войсам «на слово». Необходимо всегда перезванивать человеку, от которого они к вам пришли, и всё уточнять лично. Особенно должно насторожить голосовое, полученное от человека, который обычно общается текстом.
Сетевое издание «Таганрогская правда» зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций Роскомнадзор. Главный редактор: В. Адрес редакции: 347900, Ростовская обл.
Полученные данные они затем используют в незаконной деятельности, что может повлечь проблемы как для владельца голоса, так и для его знакомых, друзей и родственников. Молчание — безопасность На россиян обрушилась волна предложений заработка при помощи голоса — например, в Сети масса объявлений о работе в озвучке рекламных роликов. Как сообщили CNews представители ИБ-компании Angara Security, за ними стоят не совсем честные граждане — они зачастую собирают образцы голосов россиян, которые затем «скармливают» нейросетям для их обучения.
Нередки случаи, когда затем эти образцы становятся основой для генерации так называемых «дипфейков». Дипфейк — это очень достоверная копия чего-либо. Термин получил распространение с развитием нейросетей, но поначалу касался только видео — искусственный интеллект позволил делать визуальные цифровые копии людей, что стали применять в рекламе, мошенничестве и порнографии.
Есть немало примеров, когда мошенники шантажировали своих жертв при помощи сгенерированных порно - дипфейков с ними. Фото: FreePik Те, кто любит разыгрывать звонящих им мошенников - в опасности. Их голос может записываться С голосом примерно та же схема, только здесь чаще всего жертвами становятся не сами владельцы голосов, а их друзья, знакомые и родственники.
Например, при помощи голосового дипфейка можно вымогать деньги.
В мае 2021 года популярным стал ролик, в котором Алекса предсказала страшный ураган и наводнение, которое в 2025 году сотрёт с лица земли Майами. Формат ответа о событиях 2025 года точно такой же, как и ответ на вопрос о Третьей мировой, отмечают в издании. Фактчекеры портала Snopes выяснили, что Алекса даёт ответ об урагане лишь на видео, а в реальности, если задать голосовому помощнику аналогичный вопрос, искусственный интеллект говорит о прогнозируемом дефиците кадров в штате Флорида. При этом дефицит кадров спрогнозировали ещё в 2021 году и предсказанием это не являлось.
Хакеры голосом Путина объявили по радио о вторжении ВСУ и всеобщей мобилизации
Пользователям на электронную почту приходит псевдоуведомление от WhatsApp о новом голосовом сообщении. Жертва проходит несколько этапов: Сначала пользователь получает письмо якобы от WhatsApp о получении нового голосового сообщения. В нем есть кнопка «Воспроизвести» и аудиодорожка. Сам отправитель маскируется под Whatsapp Notifier, но использует электронный адрес «Центра безопасности дорожного движения Московской области».
Главное не поддаваться панике и провокациям.
Напомним, что за размещение в соцсетях заведомо недостоверной информации предусмотрена административная ответственность. За распространение ложной информации одному из жителей Менделеевска уже наложен штраф в размере 30 тысяч рублей.
Как поясняет Тарас Татаринов, фишинг может быть в каких угодно сообщениях, в том числе и голосовых. Вопрос в содержании, а не в формате. А если голосовое сообщение пришло в SMS? Как ранее предупреждали в МВД, абоненту, например, могут приходить SMS о том, что он получил голосовое поздравление с праздником.
Фабрика лжи вовсю использует искусственный интеллект и выпускает все более изощренные фальшивки. Их буквально тьма — от якобы новостей про СВО до телефонного мошенничества и киберворовства на доверии. Люди, будьте бдительны.
Мошенники массово воруют голоса россиян. Как не стать их жертвой?
Затем мошенники скачивают сохраненные голосовые сообщения и с помощью сервисов искусственного интеллекта синтезируют новые «голосовушки» с необходимым контекстом, указал Егоров. узнал у эксперта по информационной безопасности Тараса Татаринова, могут ли нести опасность голосовые сообщения, отправленные с незнакомых номеров. Напролом И: Мошенники научились подделывать голосовые сообщения. С формулировкой "завтра" его можно распространять совершенно в любое время, и оно не утратит своей актуальности, что делает фейк универсальным, – говорится в материале С формулировкой "завтра" его можно распространять совершенно в любое время, и оно не утратит своей актуальности, что делает фейк универсальным, – говорится в материале
Мошенники массово воруют голоса россиян. Как не стать их жертвой?
Хакеры голосом Путина объявили по радио о вторжении ВСУ и всеобщей мобилизации | С появлением новой схемы мошенничества под удар попадают все, кто отправляет голосовые сообщения. |
Videos Самый смешной фейк с голосовыми сообщениями про коронавирус | | канал:Qiwi +79872585391. |
Мошенники начали подделывать голоса россиян с помощью ИИ | Злоумышленники для упрощения своей мошеннической деятельности стали чаще использовать нейросеть ChatGPT, пишут «Известия». Основное внимание при этом направлено на создание голосовых дипфейков. |
Зачем мошенники копируют ваши голосовые сообщения из мессенджеров
Единственное, что в этом сообщении правда – то, что информация о голосовых звонках хранится в течение полугода и может быть использована МВД, ФСБ, ФСО, СВР и ФСИН по решению суда. «Радиостанция подверглась хакерской атаке», — говорилось в сообщении «Коммерсантъ FM». Мошенники научились подделывать голосовые сообщения в мессенджере «Телеграм» с помощью искусственного интеллекта (ИИ). Эксперты по кибербезопасности отмечают рост использования аудиодипфейков для мошеннических звонков в мессенджерах — подделку голоса руководителя компании для авторизации перевода средств. Нижнекамка в «Ватс Апе» разослала голосовое сообщение и отправила нескольким знакомым.
МВД: Мошенники крадут образцы голоса из аккаунтов в соцсетях
Только после этого злоумышленники переходят к просьбе о финансовой помощи, например, одолжить деньги на один день для оплаты квартиры. В итоге «жертва» переводит деньги на карту, номер которой присылает мошенник. Мы уже предупреждали россиян не вести телефонных разговоров с неизвестными, чтобы исключить запись голоса. Такие данные легко использовать для хищения денег. Ранее мошенники использовали сложные современные технологические решения.
Общество Фото: Pixabay Мошенники начали использовать чужие аудиосообщения и создавать с помощью искусственного интеллекта фейки. Об этом рассказал руководитель команды разработки супераппа Gem Space Ваге Закарян. По словам эксперта, злоумышленники добывают аудиосообщения пользователей, взламывая их социальные сети и мессенджеры. Затем они используют нейросети, чтобы на основе тех голосовых сообщений создать новые с просьбами о помощи.
Люди, будьте бдительны. Об этом сегодня говорили в Москве на международном форуме «Диалог о фейках». Там работал наш корреспондент Александр Лякин.
Почти Об этом предупредили специалисты Компания Armorblox, специализирующаяся на кибербезопасности, предупредила пользователей WhatsApp о новом виде мошенничества, связанного с функциональностью мессенджера. После обновления функции голосовых сообщений мошенники начали распространять под предлогом их получения вирус для кражи личных данных.
Потенциальная жертва получает на электронную почту уведомление о голосовом сообщении, пришедшем на WhatsApp, в которое встроена кнопка «Воспроизвести» и указана продолжительность аудиозаписи.
Голосовым сообщениям больше нельзя доверять
Жительницу города Альметьевск (Татарстан), записавшую и отправившую ложное голосовое сообщение о коронавирусе, оштрафовали на 30 тыс. рублей. Куценко, IT-эксперт, рассказал о том6 как мошенники обманывают людей с помощью подделанных голосовых сообщений в сети. Мошенники пытаются получить доступ к корпоративным учетным записям сервисов Microsoft с помощью поддельных голосовых сообщений.
Новый фейк о коронавирусе опровергли в Менделеевске
Мошенники вооружились ИИ для вымогательства с помощью фейковых голосовых сообщений | «Мы не собираемся мириться с подобными фейками и продолжим открывать мировому сообществу глаза на происходящее», — заявила Захарова. |
Мошенники вооружились ИИ для вымогательства с помощью фейковых голосовых сообщений | Поводом для распространения таких фейков стал, так называемый, «Закон Яровой», принятый в 2016 году. |