Телефонные мошенники в России все чаще подделывают голоса родственников и знакомых своих жертв. С этой технологией мошенники подделывают голоса и изображения реальных людей, после чего звонят их друзьям, коллегам и подчиненным. Чтобы подделать чей-то голос, мошенникам достаточно использовать недорогой онлайн-инструмент на базе искусственного интеллекта, который анализирует уникальные особенности голоса любого человека и воспроизводит его с учетом пола, возраста и даже акцента.
Как мошенникам удается подделать голос?
- СПОСОБЫ ЗАЩИТЫ
- Даже начинающие мошенники могут быть опасны
- ЦБ: мошенники стали обманывать россиян, подделывая голоса их родных
- Мошенники научились подделывать голоса и видео. Как распознать подмену | Банки.ру
- Мошенники научились подделывать голоса. Как не попасться на уловку
- Telegram: Contact @nastroenie_tvc
Эксперт по кибербезопасности Ефимов предупредил о возможности создать фейковую аудиозапись
За счет стресса и доверчивости различить тонкости в голосе непросто, — поясняет специалист. За борьбу с подделками решили взяться на государственном уровне Как отмечает Александров, сегодня круг потенциально успешных атак мошенников расширяется за счет того, что голос, имитированный ИИ, действительно стал похож на оригинал, и в зоне риска находятся люди, которые знают о подобных мошеннических атаках, но не в курсе применения современных технологий в сфере копирования голоса. Как не стать жертвой мошенника Для того чтобы создать голосовой дипфейк, имитирующий речь конкретного человека, злоумышленникам нужны образцы его голоса. Как говорит главный эксперт «Лаборатории Касперского» Сергей Голованов, при наличии нескольких образцов голоса мошенники могут с помощью нейросети создать аудиозапись с необходимым им содержанием. Однако в режиме реального времени создавать подобную запись не получится, — рассказывает эксперт. Образцы голоса потенциальной жертвы для создания дипфейков злоумышленники могут добывать разными путями. Как отмечает Александр Самсонов, мошенникам помогают публичные аудио- и видеозаписи в соцсетях, а также утечки биометрических данных. Кроме того, они могут просто позвонить человеку по телефону и записать его голос на диктофон. Поэтому, чтобы защититься от них, очень важно беречь личную голосовую информацию. Также следует соблюдать конфиденциальность в соцсетях и мессенджерах, чтобы ограничить возможность получения голосовых данных третьими лицами, — говорит специалист. Как поясняет Багдасарян, если злоумышленник получит доступ к профилю в соцсети, он воспользуется не только образцами голоса, но и дополнительной контекстной информацией о человеке, что в дальнейшем позволит ему более убедительно взаимодействовать с жертвой.
Наши корреспонденты освещают все важные события города. Политика, экономика, спорт, юмор, погода, интервью, специальные репортажи, происшествия и многое другое вы увидите первыми в прямом эфире Показать больше.
Они настаивают на срочности действий, чтобы жертва не успела опомниться. Еще один признак - упоминание авторитетных структур в разговоре - полиции, ФСБ, Центробанка, Следственного комитета. Если в процессе разговора вы испытываете интенсивные эмоции, а собеседник требует от вас немедленно предпринять действия, скорее всего, это преступник. Как себя обезопасить Чтобы не стать жертвой мошенников, следуйте рекомендациям: Не разглашайте свои личные данные по телефону, включая различные коды и пароли. Прекращайте любой телефонный разговор, который вызывает у вас подозрения. Если вы переживаете за родственников, перезвоните им.
Если вы уже совершили какие-либо финансовые операции, немедленно позвоните в банк, заблокируйте карту и напишите заявление о факте мошенничества. После - обратитесь в полицию. Современный мир принес мошенникам больше инструментов для воздействия на людей. Звонки, рассылки по электронной почте, инструментарий для физической записи паролей непосредственно с клавиатуры банкомата - может показаться что пользоваться любыми сервисами опасно для кошелька.
Здесь вопрос не в искусственном интеллекте, от него мы никуда не денемся, со временем, в какой-то степени он всех заменит, — рассуждает Михаил Серенко. Даже без этих дипфейковых видео мошенники совершают такие виды преступлений, что волосы на голове дыбом встают. Например, взять какой-то кредит, это сложно, но мошенники с легкостью их оформляют. Любое благое начинание мошенники будут использовать против людей, то же самое и с нейросетями. Как защитить себя от дипфейков? Часто злоумышленники пользуются одной из главных уникальных функций нейросетей — генерированием несуществующих в реальности видео, аудио и изображений, в попытках обмануть не самую внимательную жертву. Специалист «Лаборатории Касперского» Владислав Тушканов рассказал, как можно опознать фейковое видео, чтобы не попасть в ловушку мошенника. Сейчас лучше смотреть на овал лица, — объяснил специалист «Лаборатории Касперского». Есть технологии, которые помогают наложить маску лица на время звонка. При видеозвонке, например, можно попросить человека повернуться в профиль. Но что в основном делают мошенники: берут самую дешевую камеру, заходят в самую темную комнату, напротив монитора и действуют. Но части просодики, паузы и манеризмы нет. Поэтому уже после двух предложений, сказанных мошенником, всё будет понятно, — утверждает Владислав Тушканов. С подозрительной текстовой информацией куда проще, нужно просто искать подтверждающие эту информацию факты в нескольких источниках и не принимать сразу каких-то решений, основываясь на полученном вами текст. Личные данные остаются в интернете навсегда Создание дипфейков, фишинговых ссылок и вредоносных ПО — не единственная полезная для хакеров функция искусственного интеллекта. Нередко и сам человек предоставляет им неограниченные возможности для совершения на себя атак. Руководитель ЦУР Волгоградской области Олег Егорушин рассказал о том, что позволяет злоумышленнику воровать данные с помощью чат-ботов. К сожалению, не все мы соблюдаем безопасность относительно того, что пишем, публикуем, пересылаем в личных сообщениях и так далее, — рассказывает Олег Егорушин. И даже если я зачистил во «ВКонтакте» свои фотографии, которые выкладывал пятнадцать лет назад, то на сайтах-клонах они хранятся до сих пор. Найти всё это не составит злоумышленнику никакого труда. Даже если вы в переписке отправляли сообщения со своими личными данными, это всё остается в сети, и мошенник может это всё вытащить. По словам экспертов, мы сами оставляем свои данные в Сети Источник: Полина Авдошина По словам руководителя ЦУР Волгоградской области, нейросети могут помочь злоумышленнику сгенерировать любой код, программу, которая вытащит с гаджета пользователя все личные данные. Когда вы разрешите какому-то приложению доступ к вашим фотографиям и данным, мошенники автоматом смогут это всё отгружать по ключевым фразам, по фото, — объясняет Олег Егорушин.
«Совпадение полное»: мошенники подделывают голоса родных и близких
О том, что мошенники подделывают голос «умного» помощника «Алиса» для того, чтобы обзванивать россиян и вводить их в заблуждение, сообщили в «Яндексе». «Я сам сталкивался с тем, что мне звонили мошенники и включали синтез голоса моего ребёнка. Мошенники для обмана россиян стали подделывать голоса родных и знакомых потенциальной жертвы, сообщили РИА Новости в пресс-службе регулятора. злоумышленники подделывают голос с помощью технологии дипфейка и одновременно подменяют номер.
Компании стали чаще скрывать утечки персональных данных
- Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян
- Как мошенникам удается подделать голос?
- Центробанк: мошенники стали чаще имитировать голоса родных и знакомых россиян
- СПОСОБЫ ЗАЩИТЫ
- Мошенники активно выманивают образцы голоса россиян
- ЦБ: мошенники научились имитировать гoлоса родных потенциальной жертвы - Российская газета
Мошенники имитируют голос родственников с помощью искусственного интеллекта
сказал Пермяков, отметив, что пока злоумышленники чаще всего ограничиваются подделкой голоса. Сама технология не нова: ещё в 2019 году мошенники украли $250 тысяч у главы британской энергетической компании, задействовав фальшивый голос по смартфону. С помощью специальных программ злоумышленники подделывают голоса родных, друзей или коллег. Оформить ссуду с помощью подделки голоса мошенники, скорее всего, не могут, утверждает юрист Евгения Боднар. Чтобы подделать чей-то голос, мошенникам достаточно использовать недорогой онлайн-инструмент на базе искусственного интеллекта, который анализирует уникальные особенности голоса любого человека и воспроизводит его с учетом пола, возраста и даже акцента.
Греф рассказал о мошенниках, подделывающих голос и изображение клиентов банков
- Мошенники с помощью искусственного интеллекта запугивают родителей голосами родных детей
- Даже начинающие мошенники могут быть опасны
- Мошенники подделывают голоса и крадут деньги – ГТРК «Коми Гор»
- Полицейские показали, как мошенники подделывают свой голос
Телефонные мошенники стали подделывать номера и голоса родственников
Такая запись голоса может требоваться мошенникам, поскольку качество записи телефонного разговора недостаточно для обучения нейросетей, говорит бизнес-консультант по информационной безопасности компании Positive Technologies Алексей Лукацкий. Теперь мошенники способны с помощью искусственного интеллекта сымитировать голос знакомого или родственника потенциальной жертвы. Стоит мошеннику загрузить короткий образец аудиоролика из сообщения в социальной сети или голосовой почты (всего 30 секунд), и он может использовать инструменты синтеза голоса с помощью искусственного интеллекта. Как подделывают голоса? Мошенники также используют голосовой фишинг, они имитируют голос конкретного человека (родственника или коллеги). «Таймырский телеграф» – Мошенники продолжают совершенствоваться: теперь они стали использовать специальную программу, с помощью которой подделывают голоса.
Роскачество: мошенники научились подделывать голоса, чтобы красть деньги
Не так давно широкое распространение в сети получили несколько сгенерированных видео с использованием лица мэра Волгограда Владимира Марченко, в которых он предстает в образах героев известных фильмов и рэперов. В следующем — играет роль Уильяма Уоллеса в известном фильме «Храброе сердце». Накануне в канале показали Владимира Марченко в роли крестного отца. Стоит отметить, что лицо чиновника отлично вписывается в образы персонажей, а сами видео выполнены далеко не в худшем качестве.
Свое мнение по поводу сгенерированного видео с использованием лица главы города высказал анонимный источник из мэрии Волгограда. То, что сделано с лицом Владимира Марченко, можно отнести скорее ко второму направлению, — говорит сотрудник администрации города. И если рассматривать это как элемент искусства, то для выбора кандидатуры в этих целях необходимо для фактора: узнаваемость героя, чье лицо применяется в дипфейке, и достаточное количество разных изображений для того, чтобы искусственный интеллект смог с ними работать.
Собеседник редакции уверен, что выбор Владимира Марченко для создания таких видео, объясняется его узнаваемостью и популярностью среди жителей Волгограда и пользователей соцсетей. Однако отдельные волгоградцы в комментариях под публикацией этих дипфейков неоднократно писали о том, что не знают человека, чье лицо использовано в видео. И получая ответ на вопрос о герое дипфейка, искренне радовались, ведь наконец узнали, как выглядит глава Волгограда.
И ни горожанам, ни представителям властей не стоит беспокоиться, когда подобный контент несет лишь положительный характер. Героем подобного дипфейка развлекательного формата стал и бывший глава Тракторозаводского района, политолог, историк и знаменитый полемист Михаил Серенко. На опубликованных в телеграм-канале правозащитника и активиста Алексея Ульянова видео политолог якобы поет известные хиты.
Лицо этой публикации — Михаил Серенко — рассказал, почему не воспринимает такие посты в негативном ключе и почему в стране до сих пор распространено мошенничество. Источник: Алексей Ульянов — Если это делается друзьями, а автор видео — мой друг Алексей Ульянов, здесь скрывать нечего, то я только положительно отношусь. Это дружеский прикол.
Как отличить умного человека от глупого: у первого развита самоирония, обижаются дураки, — поделился Михаил Серенко. И я придерживаюсь той точки зрения, что если какой-то вид преступления не могут пресечь, то нужно искать погоны, стоящие за этим видом преступления. Если бы силовики захотели, то давно бы прекратились все эти разводы бабушек, использования искусственного интеллекта, но, видимо, пока не хотят приложить достаточно усилий, чтобы это пресечь.
По мнению волгоградского полемиста, чтобы минимизировать количество подобных преступлений, необходимо ужесточить меры уголовного наказания. Потому что срок маленький дают, а вы дайте пожизненный срок за утечку базы данных, они перестанут. Здесь вопрос не в искусственном интеллекте, от него мы никуда не денемся, со временем, в какой-то степени он всех заменит, — рассуждает Михаил Серенко.
Даже без этих дипфейковых видео мошенники совершают такие виды преступлений, что волосы на голове дыбом встают.
Возьмите себе на заметку, что телефонные мошенники в 2024 году начали подменять даже входящие номера. Известны случаи, когда аферисты звонят с номера банка, хотя на самом деле это всего лишь умелая фальсификация. По этой логике преступники могут звонить и с «номера» того человека, которым они представляются. Итак, что делать? Есть три способа, как раскусить этот вид мошенничества и не стать жертвой телефонных мошенников. Проверочный вопрос. Какой бы убедительной ни казалась речь близкого человека особенно если он звонит не со своего номера , задайте ему такой вопрос, ответ на который знает только он: например, кем работала твоя бабушка, где находится наша дача, как зовут твоего домашнего питомца и т.
Кодовое слово. Договоритесь с семьей и друзьями, что в случае экстремальной ситуации вы всегда будете использовать кодовое слово. Это позволит моментально раскрыть любую телефонную аферу с поддельным голосом. Сбросить и перезвонить.
Он разыгрывал спектакль по мобильному телефону, после чего люди отдавали ему все свои сбережения, сообщил телеканал "360 Подмосковье". Реклама Вместе с сообщниками мужчина обманывал доверчивых людей, используя для этого лишь телефон. Поздней ночью они звонили, жертвам и говорили, что их сын либо внук попал в беду. Он говорит: "Мама, я сбил человека". Я говорю: на переходе сбил, да? Да, мама, насмерть", - рассказала потерпевшая.
Аферы становятся все сложнее и убедительнее. Благодаря бурно развивающемуся искусственному интеллекту ИИ мошенники теперь способны воспроизвести голос знакомого человека, а в некоторых случаях даже его лицо. Эта технология доступна не только для самых одержимых, но и для всех, у кого есть приличный компьютер и подключение к Интернету. Телефонные мошенники с искусственным интеллектом играют на психологии доверия и страха, заставляя людей отдавать деньги, делая вид, что они знают человека, сидящего на другом конце провода. Как же работает эта технология и можно ли как-то лучше подготовиться к встрече с мошенниками будущего? Мы побеседовали с Оли Бакли, профессором кафедры кибербезопасности Университета Восточной Англии, чтобы узнать больше об этих новых мошенничествах. Что такое deepfake? Хотя мошенничества продолжают существовать в самых разных формах, эти новейшие разработки, как правило, опираются на технологию, известную как дипфейк. Используя алгоритм искусственного интеллекта, они создают контент, который выглядит или звучит реалистично. Это может быть видео или даже просто аудио Бакли Им требуется очень мало обучающих данных, и они могут создать нечто достаточно убедительное с помощью обычного ноутбука, который может купить каждый По сути, дипфейки берут примеры видео- или аудиозаписей, и учатся точно воссоздавать их движения или голос. Это может быть использовано для того, чтобы поместить лицо на тело другого человека, заставить его голос читать определенный текст или же совершать вредоносные действия. Несмотря на то, что технология кажется сложной, на самом деле сделать дипфейк самостоятельно на удивление просто.