Мошенники научились подделывать голосовые сообщения в мессенджере «Телеграм» с помощью искусственного интеллекта (ИИ). Это сделало опасным использование голосовых сообщений и отправку видео, заявил эксперт по сетевым угрозам компании «Код Безопасности» Константин Шуленин.
«Скинь денег срочно». Мошенники научились подделывать голоса ваших друзей
Сообщения с предупреждением, что скачанное на мобильный телефон приложение с названием «Разговор Путина и Кадырова» способно взломать приложение российских банков, получили пользователи мессенджеров в России. узнал у эксперта по информационной безопасности Тараса Татаринова, могут ли нести опасность голосовые сообщения, отправленные с незнакомых номеров. «Информация о вторжении украинских войск в Белгородской области, введении военного положения, всеобщей мобилизации и эвакуации региона вглубь России — фейк», — заявили в Telegram-канале оперштаба.
Старый фейк о «прослушке» телефонных разговоров вновь распространяют в Сети
Признанный иноагентом «Голос» усердно тиражировал этот фейк. Тогда же в подмосковном Раменском движение уличили в публикации еще одной лжи — о вбросе бюллетеней. В том числе формируются голосовые сообщения – они генерируются с помощью нейросети, подробнее об этом мы сообщали здесь. В "сообщении" президент РФ якобы заявлял о наступлении ВСУ на ряд областей России и всеобщей мобилизации. По радио и ТВ транслировали экстренное обращение Путина – оказалось, это фейк. fake app Специалисты компании Armorblox предупредили о новой фишинговой кампании, в ходе которой злоумышленники подделывают функцию голосовых сообщений WhatsApp с целью распространения ПО для похищения данных. Глава региона сообщил о новом фейке – недоброжелатели начали подделывать его голос и рассылать голосовые сообщения жителям Белгородской области. Вымогатели научились с помощью искусственного интеллекта подделывать голосовые сообщения владельца аккаунта в Telegram.
Открытки и видео в мессенджерах заражают смартфон вирусом
Сложившуюся ситуацию прокомментировали и пресс-службе областного правительства. Причин для беспокойства нет. Принятие дополнительных решений для сохранения стабильной обстановки в Воронежской области сейчас не требуется, - говорится в сообщении облправительства. Фото: unsplash.
В итоге они рассылают эти сообщения в личные и групповые чаты, подкрепляя их сгенерированными голосовыми сообщениями и отфотошопленными банковскими картами с поддельными именами получателей. В полиции советуют: "Если вы подозреваете, что ваша анкета была взломана, то необходимо заблокировать ее и сообщить администраторам ресурса об этом как можно скорее. Используйте безопасные веб-сайты, в том числе интернет-магазинов и поисковых систем. Используйте сложные и разные пароли. Если вас взломали, предупредите всех своих знакомых, которые добавлены у вас в друзьях, о том, что, возможно, от вашего имени будет рассылаться спам и ссылки на фишинговые сайты.
За борьбу с подделками решили взяться на государственном уровне Как отмечает Александров, сегодня круг потенциально успешных атак мошенников расширяется за счет того, что голос, имитированный ИИ, действительно стал похож на оригинал, и в зоне риска находятся люди, которые знают о подобных мошеннических атаках, но не в курсе применения современных технологий в сфере копирования голоса. Как не стать жертвой мошенника Для того чтобы создать голосовой дипфейк, имитирующий речь конкретного человека, злоумышленникам нужны образцы его голоса. Как говорит главный эксперт «Лаборатории Касперского» Сергей Голованов, при наличии нескольких образцов голоса мошенники могут с помощью нейросети создать аудиозапись с необходимым им содержанием. Однако в режиме реального времени создавать подобную запись не получится, — рассказывает эксперт. Образцы голоса потенциальной жертвы для создания дипфейков злоумышленники могут добывать разными путями. Как отмечает Александр Самсонов, мошенникам помогают публичные аудио- и видеозаписи в соцсетях, а также утечки биометрических данных. Кроме того, они могут просто позвонить человеку по телефону и записать его голос на диктофон.
Поэтому, чтобы защититься от них, очень важно беречь личную голосовую информацию. Также следует соблюдать конфиденциальность в соцсетях и мессенджерах, чтобы ограничить возможность получения голосовых данных третьими лицами, — говорит специалист. Как поясняет Багдасарян, если злоумышленник получит доступ к профилю в соцсети, он воспользуется не только образцами голоса, но и дополнительной контекстной информацией о человеке, что в дальнейшем позволит ему более убедительно взаимодействовать с жертвой. Поэтому для защиты своих социальных сетей от взлома эксперт советует соблюдать определенные меры безопасности — к примеру, использовать сложные уникальные пароли и регулярно их обновлять.
Сюжет Фейк Губернатор Вячеслав Гладков в утреннем обращении сообщил, что в Сети уже начали подделывать его голос. Глава региона напомнил, что он никогда не рассылает голосовые сообщения. Как отметил Гладков, в регионе уже привыкли к рассылкам писем с поддельными подписями различных чиновников. Привыкли и к созданию фейковых видео, с помощью которых пытаются создать социальную напряжённость в Белгородской области. Бороться с этим уже научились, однако прогресс на месте не стоит.
Голосовым сообщениям больше нельзя доверять
Смотрите видео на тему «как сделать фейк голосовое сообщение» в TikTok (тикток). Злоумышленники стали практиковать новый метод вымогательства через социальные сети и мессенджеры с использованием ИИ для создания поддельных голосовых сообщений. Напролом И: Мошенники научились подделывать голосовые сообщения. Вы самостоятельно пишете его имя, устанавливаете аватарку, а также набираете сообщения от его имени. Несколько дней назад мне пришло сообщение от коллеги в WhatsApp с просьбой проголосовать за ее «племянницу Лену» на каком-то сайте, и я перешла по ссылке.
Голосовым сообщениям больше нельзя доверять
Да Не сейчас 22 ноября 2023, 21:27 О методах борьбы с недостоверной информацией в соцсетях говорят на международном форуме «Диалог о фейках» Фейки в социальных сетях, как одна из главных примет и опасностей нашего времени. Фабрика лжи вовсю использует искусственный интеллект и выпускает все более изощренные фальшивки. Их буквально тьма — от якобы новостей про СВО до телефонного мошенничества и киберворовства на доверии.
Старый фейк о «прослушке» телефонных разговоров вновь распространяют в Сети 23. Это фейк. Это сообщение стало вирусным в Казнете еще в январе 2022 года. Тогда его распространяли от имени Комитета национальной безопасности РК.
Например, при помощи голосового дипфейка можно вымогать деньги. Все только начинается На проблему безопасности голосов россиян обратили внимание эксперты ИБ-компании Angara Security. Они сообщил CNews, что объявления с набором актеров озвучания стали появляться на крупнейших платформах размещения вакансий , а также в Telegram. Некоторые «ортодоксальные» мошенники по-прежнему полагаются на обзвоны — они звонят совершенно незнакомым людям и предлагают им работу. Однако нет никакой гарантии того, что даже во время этого телефонного разговора не ведется запись, которая в дальнейшем превратится в виртуальную копию голоса. В отчете Angara Security сказано, что голосовыми данными россиян мошенники интересуются не первый год, но с течением времени их интерес с к ним крепнет. Так, в 2021 г. Годом позже их стало 4800, то есть рост оказался четырехкратным. Результат 2023 г. Почти бесплатный голос Мошенники, стараясь максимально автоматизировать процесс получения нужной им информации, решили переложить все на плечи самих россиян.
Написать автору Фактчекеры объяснили, как именно создаются предсказания Алексы. В соцсетях распространяется видео, на котором мужчина спрашивает голосового помощника Алексу о том, когда начнётся Третья мировая война, на что искусственный интеллект отвечает точной датой: 23 ноября 2023 года в 18. В Stopfake. Голосовой помощник Алекса разработала компания Amazon, этот девайс пользуется большой популярностью в США.