Как мошенникам удается подделать голос Нейросети на базе искусственного интеллекта (ИИ) могут имитировать голос позвонившего вам знакомого или родственника. Напомним, ранее россиян предупредили о новом способе мошенничества в «Телеграме» и во «ВКонтакте» — мошенники научились подделывать голосовые сообщения в мессенджерах с помощью искусственного интеллекта. Мошенники могут попытаться с полученной записью голоса обратиться в банк, чтобы от имени другого клиента совершить различные финансовые операции.
Цифровая гигиена
- «Совпадение полное»: мошенники подделывают голоса родных и близких
- Роскачество: мошенники научились подделывать голоса, чтобы красть деньги -
- В Роскачестве дали советы, как защитить свои биометрические данные от мошенников
- Мошенники могут подделать чужой голос, чтобы украсть деньги
Мошенник обманывал людей, подделывая голоса близких по телефону
Раньше была нужна коммуникация между человеком и мошенником, но сейчас часть запросов может быть получена автоматически. Даже начинающие злоумышленники могут представлять угрозу за счет получения компетенции от языковых моделей. Специалисты по кибербезопасности предупреждают — нейросети уже используют для обмана пользователей Источник: Полина Авдошина Искусственный интеллект дает неограниченные возможности злоумышленникам создавать новые способы наживы над простым интернет-пользователем. И аферисты по максимуму экспериментируют с технологическими разработками. Используются они и для создания вредоносных ПО, — утверждает эксперт в области интернет-безопасности. Каждый месяц появляются новые и становятся всё более распространены и позиционируются как аналоги ChatGPT, но сразу со снятыми ограничениями. Угроза чат-ботов заключается в их способности генерирования фишинговых сообщений и разработке вредоносных ПО и задач.
Какие еще инструменты нейросетей можно использовать для зловредных целей, подробнее рассказал руководитель группы исследований и разработки технологий машинного обучения «Лаборатории Касперского» Владислав Тушканов. Например, для завлечения человека нажать на какую-то ссылку, чтобы тот скачал вредоносный файл и так далее. Под удар попал даже мэр Марченко Искусство создания дипфейковых видео изучили не только мошенники, но и авторы волгоградских телеграм-каналов. Не так давно широкое распространение в сети получили несколько сгенерированных видео с использованием лица мэра Волгограда Владимира Марченко, в которых он предстает в образах героев известных фильмов и рэперов. В следующем — играет роль Уильяма Уоллеса в известном фильме «Храброе сердце». Накануне в канале показали Владимира Марченко в роли крестного отца.
Стоит отметить, что лицо чиновника отлично вписывается в образы персонажей, а сами видео выполнены далеко не в худшем качестве. Свое мнение по поводу сгенерированного видео с использованием лица главы города высказал анонимный источник из мэрии Волгограда. То, что сделано с лицом Владимира Марченко, можно отнести скорее ко второму направлению, — говорит сотрудник администрации города. И если рассматривать это как элемент искусства, то для выбора кандидатуры в этих целях необходимо для фактора: узнаваемость героя, чье лицо применяется в дипфейке, и достаточное количество разных изображений для того, чтобы искусственный интеллект смог с ними работать. Собеседник редакции уверен, что выбор Владимира Марченко для создания таких видео, объясняется его узнаваемостью и популярностью среди жителей Волгограда и пользователей соцсетей. Однако отдельные волгоградцы в комментариях под публикацией этих дипфейков неоднократно писали о том, что не знают человека, чье лицо использовано в видео.
И получая ответ на вопрос о герое дипфейка, искренне радовались, ведь наконец узнали, как выглядит глава Волгограда. И ни горожанам, ни представителям властей не стоит беспокоиться, когда подобный контент несет лишь положительный характер. Героем подобного дипфейка развлекательного формата стал и бывший глава Тракторозаводского района, политолог, историк и знаменитый полемист Михаил Серенко. На опубликованных в телеграм-канале правозащитника и активиста Алексея Ульянова видео политолог якобы поет известные хиты.
Сотрудник одной финансовой компании получил якобы от руководителя сообщение, в котором была просьба перевести крупную сумму со счета организации. Эта просьба смутила жертву, но чтобы развеять сомнения, мошенники пригласили его на видеоконференцию, в которой принимали участие и другие сотрудники компании. Но все они, кроме жертвы, использовали технологию подмены голоса и видео. Компания из-за этого обмана потеряла 25,6 млн долларов.
Топ 3 дебетовых карт Откуда у мошенников образцы голосов и изображения людей Подменные видео и аудио мошенники получают с помощью нейросетей. Однако для их обучения требуются образцы голосов и изображения людей — чем больше, тем качественнее получится подмена. Мошенники берут всю информацию из открытых источников — в первую очередь, из соцсетей. Например, в случае с гонконгской компанией сотрудники, именами которых воспользовались мошенники, активно вели свои страницы — выкладывали видеолекции со своим участием и личные фотографии. Как распознать подмену Распознать подмену голоса или видео на современном этапе сложно, но возможно. Руководитель департамента информационной безопасности Банки. У человека, который использует подменное видео, бывают аномалии в движениях: например, неестественная мимика. Также заметны несоответствия в фоне или свете.
Мошенники подделывают голоса, притворяясь вашими родственниками или знакомыми Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного человека. Например, позвонивший вам в мессенджер ребенок, родственник или знакомый просит срочно перевести небольшую сумму денег. Причина может быть какая угодно — ребенку срочно нужно сделать подарок другу или учительнице, пожилому родственнику не хватает небольшой суммы на покупку лекарств в аптеке. Звонивший под разными предлогами уговаривает отправить деньги на чужую карту или перевести их по чужому номеру телефона. Мошенник легко оправдается, почему перевод нужно осуществить другому человеку — можно сказать, что это счет продавца, друга, который находится рядом или что телефон разрядился. Нередко злоумышленники звонят в ночное время, чтобы застать жертву врасплох. Обычно речь идет о небольшой сумме, поэтому вопросов у жертвы не возникает и, как следствие, деньги попадают в руки мошенников. Можно ли защититься от нового вида мошенничества?
Эксперты Центра цифровой экспертизы Роскачества подготовили 10 правил цифровой безопасности, которые помогут вам не попасться на новую мошенническую схему: — Не отвечайте на звонки с подозрительных номеров, чтобы не дать возможности украсть ваш голос.
Кража голосов Программы, с помощью которых можно синтезировать голос выбранного человека, уже широко распространены, предупредил эксперт. При этом все большую роль в этой сфере начинают играть нейросети - в ближайшее время с их помощью можно будет подделать внешность человека, что снизит доверие пользователей к видеозвонкам, считает он. Для последующего воссоздания речи достаточно всего нескольких минут качественной аудиозаписи, поэтому разговаривать с незнакомцами по телефону не рекомендуется, отметил Пермяков. Но есть общее правило: не разговаривать с мошенниками. Это небезопасно.
Не дайте себя обмануть! Что придумали телефонные мошенники в 2024г: нейросети, QR и маркетплейсы
Но даже если дело доходит до суда, увы, он не всегда встает на сторону жертв мошенничества, ведь фактически все действия люди выполняли сами. В таком случае придется возвращать займ, иначе долг вырастет, банк начислит проценты и пени, а потом вовсе передаст долг коллекторам. Чтобы законно не платить кредит, взятый из-за мошенников, придется пройти процедуру банкротства», — резюмирует Боднар. Как обезопасить себя от мошеннического ИИ Если вам пишет знакомый и даже присылает голосовые сообщения с просьбой одолжить денег, то просто позвоните ему по обычному телефону. Если человек в голосовых сообщениях говорит, что ему «ни в коем случае не надо звонить», точно лучше перепроверить: вашему приятелю не составит труда бросить трубку, если он действительно занят, советует соруководитель практики защиты прав инвесторов компании «Интерцессия» Анастасия Чумак.
Можете также связаться с друзьями и родственниками просителя, чтобы тот человек, которого взломали, быстрее это осознал и принял необходимые меры: поменял пароль в аккаунте, удалил или заблокировал через службу поддержки. Самый важный принцип здесь — не торопиться переводить деньги. Мошенники стараются ввести жертву в замешательство — не дать ей время оценить обстановку и свои действия. Поэтому дождитесь от человека ответа через другие каналы связи», — настаивает эксперт.
Стоит также критически относиться к сообщению с просьбой о материальной помощи. Хотя нейросети развиваются бешеными темпами, все же они далеки от идеала.
Анна Лапа отметила, что схемы с использованием голоса для хищения денег, конечно же, незаконны, но раскрыть такие преступления и найти самих мошенников крайне сложно, поэтому профилактические меры пока остаются лучшей защитой. Юрист подчеркнула, что главное — тщательно проверять контрагентов, которые просят вас записать голос, а также внимательно читать условия договора. Анна Лапа дала читателям «Постньюс» следующие рекомендации: обязательно требуйте договор перед записью голоса, не соглашайтесь на сотрудничество «на честном слове» и не отсылайте свои голосовые безымянным пользователям соцсетей; внимательно прочитайте договор перед тем, как его подписать — может случиться, например, что человек разрешил озвучку порнофильмов своим голосом, но сам об этом не знает, так как не прочитал договор; задавайте вопросы и корректируйте договор. Если вы, например, не согласны, чтобы ваш голос использовали в соцсетях компании, то так и пишите; проверяйте вашего контрагента.
Если вы записываете рекламу для условного Сбербанка, но подписываете договор со странным рекламным агентством, это не значит, что вы работаете на Сбербанк; если смутно понимаете, что договор и его условия сомнительны, лучше обратиться к юристу. Как не стать жертвой мошенников? Татьяна Красногорская по просьбе «Постньюс» подготовила для пользователей рекомендации по информационной гигиене: не озвучивать фильмы, книги и другие произведения без договора также не забудьте проверить по всем открытым базам того, с кем заключаете договор ; не предоставлять никакие персональные данные неустановленным лицам; перепроверять информацию и перезванивать знакомым, которые просят деньги через голосовое сообщение; рассказать об этих рекомендациях своим старшим и, особенно, пожилым родственникам, которые более уязвимы. Сергей Пьянков добавил, что если у вас есть малейшее подозрение, что образец вашего голоса могли украсть мошенники, обязательно предупредите об этом всех родственников, друзей, знакомых и коллег. Делать это нужно через альтернативные каналы связи — если вам кажется, что ваш Telegram был взломан, писать через него предупреждения бессмысленно. Разве россияне все еще переводят деньги мошенникам?
Да, и несмотря на все усилия по борьбе с мошенниками, число успешных операций по незаконному получению денег только растет. Так, за прошлый 2023 год преступники смогли провести более миллиона успешных операций и похитили у россиян 15,8 млрд рублей. При этом Банк России регулярно обновляет рекомендации для коммерческих банков, в соответствии с которыми они блокируют все подозрительные операции. За прошлый год банки смогли отразить 34,8 млн попыток хищения средств у россиян.
Мошенники для обмана россиян стали подделывать голоса родных и знакомых жертвы. Нечистые на руку лица имитируют голоса людей, которых знает жертва, используя специальные компьютерные программы. В то же время отмечается, что мошенники, желая запутать жертву, все чаще используют комбинированные схемы, преимущественно телефонные. За основу берется информация, которую россияне размещают в соцсетях - это данные о родственниках, друзьях, работе или досуге. Поэтому лучше скрывать от посторонних глаз личную и финансовую информацию.
Та подтвердила, что это голос владельца клуба. Тогда работница согласилась отдать 155 тысяч рублей, которые были в кассе. А спустя полчаса явился курьер и забрал деньги. Администратор позже решила всё же убедиться, что всё сделала правильно, и написала в рабочий чат.
ЦБ: мошенники научились имитировать гoлоса родных потенциальной жертвы
С помощью поддельного голоса подруги мошенники смогли похитить браслет Bulgari стоимостью полмиллиона у простой и безработной студентки из Москвы. Проверить подлинность подделанного голоса или видео можно лишь технически, предупреждает Семенычев. IT-эксперты рассказали, как мошенники подделывают голоса россиян. Образцы голоса затем используются для создания фейковых аудиозаписей и выманивания денег. Мошенники подделали голос гендиректора московского фитнес-клуба с помощью нейросети и украли выручку. Также развивается технология deepfake: преступники подделывают голос близких людей жертв.
Как мошенники записывают голоса других людей?
- Метод Терминатора
- Мошенник обманывал людей, подделывая голоса близких по телефону | 360°
- Мошенники имитируют голос родственников с помощью искусственного интеллекта
- Новый прием мошенников: синтез голоса
- Сейчас на главной
Киберпреступники освоили технологию замены голоса для шантажа и мошенничества — эксперт
Мошенники не подделывали ее голос, но использовали продуманную со всех сторон схему. Чтобы мошенники не подделали ваш голос и не позвонили кому-то от вашего имени, не разговаривайте с незнакомыми людьми по телефону и не называйте слова "да" и "нет". Мошенники с использованием клонированного голоса заявили Дженнифер ДеСтефано (справа), что похитили ее дочь Брианну (слева). Мошенники подделали голос гендиректора московского фитнес-клуба с помощью нейросети и украли выручку. Мошенники стали использовать для вымогательства денег созданные ИИ голосовые сообщения от имени владельца аккаунта в соцсетях или мессенджерах.
Прозвони мне, прозвони. IT-эксперты рассказали, как мошенники подделывают голоса россиян
Ей сообщили, что директор в отпуске, более того, у них не принято так отправлять деньги. На кибермошенников, подделавших голос Колмыкова через нейросети, подали заявление в полицию. Проводится проверка.
При помощи нейросетей преступники могут воспроизвести интонацию, ритм и особенности речи конкретного человека, чтобы создать убедительное аудиосообщение. Это, конечно, люди старшего возраста. В то же время рискуют и родственники публичных людей, поскольку образцы голосов звезд легче найти в открытом доступе, — поясняет Александр Самсонов.
Например, у родителей действительно может быть непутевый сын, который попадает в плохие истории. За счет стресса и доверчивости различить тонкости в голосе непросто, — поясняет специалист. За борьбу с подделками решили взяться на государственном уровне Как отмечает Александров, сегодня круг потенциально успешных атак мошенников расширяется за счет того, что голос, имитированный ИИ, действительно стал похож на оригинал, и в зоне риска находятся люди, которые знают о подобных мошеннических атаках, но не в курсе применения современных технологий в сфере копирования голоса. Как не стать жертвой мошенника Для того чтобы создать голосовой дипфейк, имитирующий речь конкретного человека, злоумышленникам нужны образцы его голоса. Как говорит главный эксперт «Лаборатории Касперского» Сергей Голованов, при наличии нескольких образцов голоса мошенники могут с помощью нейросети создать аудиозапись с необходимым им содержанием. Однако в режиме реального времени создавать подобную запись не получится, — рассказывает эксперт.
Образцы голоса потенциальной жертвы для создания дипфейков злоумышленники могут добывать разными путями. Как отмечает Александр Самсонов, мошенникам помогают публичные аудио- и видеозаписи в соцсетях, а также утечки биометрических данных.
Это десятки, сотни часов аудиозаписей, - рассказывает Алексей Раевский.
Мошенникам нужно получить доступ к аудиозаписям, которые могли быть опубликованы в социальных сетях или мессенджерах. Ну или еще как вариант — аферисты могут позвонить человеку, включить диктофон и очень долго разговаривать с ним по телефону. А после этого использовать записи в своих целях.
Как получают доступ к контактам? Мошенники взламывают плохо защищенные аккаунты в социальных сетях и мессенджерах. Но, как рассказывает специалист, это довольно сложный путь и требует гораздо больше усилий и времени.
И уже с этого аккаунта пишут жертвам своего обмана в мессенджерах или соцсетях. Если вы получили голосовое сообщение от знакомого, который просит выручить его деньгами, лучше всего перезвонить ему по тому номеру, который указан в записной книжке телефона, но не с того же канала связи, где было отправлено сообщение. Удостоверьтесь, действительно ли нужна ему помощь.
Еще один вариант — задать какой-то вопрос, ответ на который мошенник точно не знает. Например, спросите, когда вы виделись в последний раз, или какое прозвище есть у вашего общего знакомого. Например, недавно, моим коллегам от моего лица писали аферисты.
Мол, какие-то базы данных утекли в сеть.
Увеличение популярности мошеннических схем с применением техники социальной инженерии и дипфейков отмечают и исследователи компании F. По словам ведущего аналитика департамента Digital Risk Protection F. Евгения Егорова, в одном мошенническом сценарии злоумышленники заставляли детей отдавать курьерам сбережения семьи, используя смоделированный голос родственника. Среди других распространенных способов мошенничества с использованием дипфейков и социальной инженерии Мельников назвал обход систем безопасности в сервисах с голосовой идентификацией, а также создание видеоконтента с использованием лиц и голосов знаменитостей.
Последний способ, к примеру, используют для «продвижения» несуществующих инвестиционных проектов, добавляет старший исследователь данных «Лаборатории Касперского» Дмитрий Аникин. Сами данные для подделки голоса собираются в процессе обычного телефонного разговора злоумышленника с жертвой, поясняет он. По словам Семенычева, мошеннические схемы, связанные с подделкой изображения или видео, распространены в меньшей степени, так как более сложны и ресурсоемки. Такие активности в основном направлены на нанесение репутационного ущерба, уточняет он.
Мошенник подделал голос друга и выманил 50 000 ₽
Мошенники в России научились подделывать голос по телефону и в социальных сетях. злоумышленники подделывают голос с помощью технологии дипфейка и одновременно подменяют номер. «Я сам сталкивался с тем, что мне звонили мошенники и включали синтез голоса моего ребёнка. Мошенники научились клонировать голоса детей и играя на родительских чувствах вымогают у них крупные суммы.
Следующий звонок от вашей семьи может оказаться мошенничеством с подменой голоса дипфейком
Как мошенникам удается подделать голос Нейросети на базе искусственного интеллекта могут имитировать голос позвонившего вам знакомого или родственника. Мошенники научились использовать современные технологии DeepFake для имитации голоса, сообщили в Роскачестве. Стоит мошеннику загрузить короткий образец аудиоролика из сообщения в социальной сети или голосовой почты (всего 30 секунд), и он может использовать инструменты синтеза голоса с помощью искусственного интеллекта. Стоит мошеннику загрузить короткий образец аудиоролика из сообщения в социальной сети или голосовой почты (всего 30 секунд), и он может использовать инструменты синтеза голоса с помощью искусственного интеллекта. IT-эксперты рассказали, как мошенники подделывают голоса россиян. Глава Сбербанка Герман Греф сообщил о телефонных мошенниках, которые совершают атаки на клиентов банков с помощью подделки голоса.