В Электрогорске задержали мужчину, который при помощи голоса умудрился обогатиться более чем на четверть миллиона рублей.
Прозвони мне, прозвони. IT-эксперты рассказали, как мошенники подделывают голоса россиян
Мошенники научились использовать современные технологии DeepFake для имитации голоса, сообщили в Роскачестве. Телефонные мошенники в России все чаще подделывают голоса родственников и знакомых своих жертв. IT-эксперты рассказали, как мошенники подделывают голоса россиян. Мошенники стали использовать для вымогательства денег созданные ИИ голосовые сообщения от имени владельца аккаунта в соцсетях или мессенджерах. Мошенники используют записи телефонных звонков, в том числе разговоров с роботами, для подделки голоса в мошеннических целях. Сама технология не нова: ещё в 2019 году мошенники украли $250 тысяч у главы британской энергетической компании, задействовав фальшивый голос по смартфону.
ПРЯМАЯ РЕЧЬ
- «Совпадение полное»: мошенники подделывают голоса родных и близких
- В Петрозаводске истекающий кровью мужчина выпрыгнул в окно и добежал до магазина
- ЦБ: мошенники научились имитировать гoлоса родных потенциальной жертвы
- Материалы по теме
- Маскировка под родственника
Подделали голос внучки. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч
Мошенники подделывают голоса людей, выманивая таким образом деньги. С помощью специальных программ злоумышленники подделывают голоса родных, друзей или коллег. Мошенники научились использовать современные технологии DeepFake для имитации голоса, сообщили в Роскачестве.
Могут ли мошенники подделать голос и украсть деньги со счета?
Телефонные мошенники научились подделывать голоса, ЦБ РФ предупредил о новых видах мошенничества с нейросетями в Волгограде. сказал Пермяков, отметив, что пока злоумышленники чаще всего ограничиваются подделкой голоса. Оформить ссуду с помощью подделки голоса мошенники, скорее всего, не могут, утверждает юрист Евгения Боднар. Мошенники подделывают голоса, притворяясь вашими родственниками или знакомыми Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного. Для того, чтобы научить его этому, мошенникам нужен образец голоса. Благодаря бурно развивающемуся искусственному интеллекту (ИИ) мошенники теперь способны воспроизвести голос знакомого человека, а в некоторых случаях даже его лицо.
Мошенники начали использовать поддельные голоса родственников жертв
Иногда мошенники получают доступ к аккаунту пользователя в мессенджере, применяя различные методы, такие как фишинг и социальная инженерия. Получив доступ к переписке, злоумышленники извлекают голосовые сообщения и загружают их в специальную систему, функционирующую на базе ИИ. Эта система затем анализирует голосовые образцы и учится имитировать особенности речи человека. С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет. Однако ведущие российские банки не используют систему управления счетом с помощью голоса. Например, в СберБанке в качестве биометрического идентификатора для проведения платежных операций используется не голос, а лицо человека.
Банки сохраняют ваш голос в биометрической базе только для того, чтобы автоматически распознавать его при звонках в техническую службу поддержки банка. К тому же существует опасение, что мошенники запишут ваш голос и передадут в Единую биометрическую систему или биометрические системы банков. Однако, несмотря на возможность утечки биометрии из банковского хранилища, использовать ее для несанкционированной идентификации невозможно. Причина состоит в самом процессе идентификации. Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков.
При этом восстановить по таким данным фото или голос человека практически невозможно.
Для этого необходима экспертиза, а вот гарантии, что она подтвердит полное совпадение, пока нет. Необходимо высочайший класс экспертов, и не каждая организация с этой задачей справится. Я вижу в развитии технологий синтеза голоса большую угрозу именно в уголовной практике.
Сейчас почти любой мошенник может разыграть телефонный звонок, заменить голос в нём на голос жертвы и шантажировать, например, уголовным делом или падением деловой репутации. Важно помнить, что даже в случае положительного решения экспертизы и суда, уголовное преследование стоит для жертвы существенных усилий. Это вызывает у меня серьезные опасения», — отмечает Жорин. При этом адвокат считает, что время судебных разбирательств по делам об использовании нейросетей в контексте интеллектуальной собственности пока не настало.
Он связывает это с тем, что судьи редко принимают нестандартные решения, а изменения настанут только после появления практики от высших судов. Говорить про защиту интеллектуальных прав пока преждевременно. Сейчас в некоторых судах даже иски о защите чести и достоинства остаются диковинкой, не говоря уже о нейродипфейках», — указал защитник.
Если мошенники подошли к вопросу серьезно, то идентифицировать их можно будет только по нехарактерному для ваших родственников поведению. Номер можно подменить - на смартфоне он будет определяться как знакомый. Также мошенники могут создать похожий аккаунт мессенджера", - сказал Пермяков, отметив, что пока злоумышленники чаще всего ограничиваются подделкой голоса. Кража голосов Программы, с помощью которых можно синтезировать голос выбранного человека, уже широко распространены, предупредил эксперт. При этом все большую роль в этой сфере начинают играть нейросети - в ближайшее время с их помощью можно будет подделать внешность человека, что снизит доверие пользователей к видеозвонкам, считает он.
Так нейросеть учится копировать голос. Трухачев добавил, что эти технологии также используют для создания информационных вбросов. Например, копируют речь президента или других известных личностей. В таком случае, по словам эксперта, нужно перезвонить на настоящий номер человека и уточнить, так ли это на самом деле. Сергей добавил, что преступники для подделки голоса используют видео.
В Петрозаводске истекающий кровью мужчина выпрыгнул в окно и добежал до магазина
- Телефонные мошенники стали подделывать номера и голоса родственников - Бинкор
- Роскачество предупредило о новой мошеннической схеме с использованием искусственного интеллекта
- Россиян начали обманывать при помощи искусственного интеллекта - 04.07.2023, ПРАЙМ
- Возможность мошенников подделать голос человека оценили: Общество: Россия:
- Мошенники с помощью искусственного интеллекта запугивают родителей голосами родных детей
- Мошенники научились подделывать ваш голос: стоит ли опасаться
Телефонные мошенники стали подделывать номера и голоса родственников
Можно ли распознать по голосу телефонного мошенника? Руководитель аналитического центра Zecurion Владимир Ульянов рассказал Москве 24, что мошеннические схемы, связанные с подменой голоса, встречаются в единичном варианте. По его словам, сейчас мошенники пользуются более простыми схемами, которые до сих пор, к сожалению, остаются эффективными. Речь идет об информации, которую они получают из-за утечек данных. Она происходит из систем госструктур или коммерческих компаний: розничных магазинов, банков, страховых. Имея определенную информацию о потенциальной жертве, мошенникам не представляет никакого труда получить код подтверждения или логин и пароль от интернет-банка. По его словам, мошенники знают, что люди неохотно говорят с силовиками, поэтому жертвы достаточно легко выдают информацию или совершают действия, которые от них требуют. Даже статистически получается так, что 95 процентов звонков — это мошенники.
Поэтому не стоит как-то из-за этого сильно переживать, а просто сбросить телефонный звонок и перезвонить в ту организацию, сотрудником которой представлялся звонящий. Если это правоохранительные органы, то нужно звонить в полицию", — разъяснил собеседник Москвы 24.
Это дружеский прикол. Как отличить умного человека от глупого: у первого развита самоирония, обижаются дураки, — поделился Михаил Серенко. И я придерживаюсь той точки зрения, что если какой-то вид преступления не могут пресечь, то нужно искать погоны, стоящие за этим видом преступления. Если бы силовики захотели, то давно бы прекратились все эти разводы бабушек, использования искусственного интеллекта, но, видимо, пока не хотят приложить достаточно усилий, чтобы это пресечь. По мнению волгоградского полемиста, чтобы минимизировать количество подобных преступлений, необходимо ужесточить меры уголовного наказания. Потому что срок маленький дают, а вы дайте пожизненный срок за утечку базы данных, они перестанут. Здесь вопрос не в искусственном интеллекте, от него мы никуда не денемся, со временем, в какой-то степени он всех заменит, — рассуждает Михаил Серенко. Даже без этих дипфейковых видео мошенники совершают такие виды преступлений, что волосы на голове дыбом встают.
Например, взять какой-то кредит, это сложно, но мошенники с легкостью их оформляют. Любое благое начинание мошенники будут использовать против людей, то же самое и с нейросетями. Как защитить себя от дипфейков? Часто злоумышленники пользуются одной из главных уникальных функций нейросетей — генерированием несуществующих в реальности видео, аудио и изображений, в попытках обмануть не самую внимательную жертву. Специалист «Лаборатории Касперского» Владислав Тушканов рассказал, как можно опознать фейковое видео, чтобы не попасть в ловушку мошенника. Сейчас лучше смотреть на овал лица, — объяснил специалист «Лаборатории Касперского». Есть технологии, которые помогают наложить маску лица на время звонка. При видеозвонке, например, можно попросить человека повернуться в профиль. Но что в основном делают мошенники: берут самую дешевую камеру, заходят в самую темную комнату, напротив монитора и действуют. Но части просодики, паузы и манеризмы нет.
Поэтому уже после двух предложений, сказанных мошенником, всё будет понятно, — утверждает Владислав Тушканов. С подозрительной текстовой информацией куда проще, нужно просто искать подтверждающие эту информацию факты в нескольких источниках и не принимать сразу каких-то решений, основываясь на полученном вами текст. Личные данные остаются в интернете навсегда Создание дипфейков, фишинговых ссылок и вредоносных ПО — не единственная полезная для хакеров функция искусственного интеллекта. Нередко и сам человек предоставляет им неограниченные возможности для совершения на себя атак. Руководитель ЦУР Волгоградской области Олег Егорушин рассказал о том, что позволяет злоумышленнику воровать данные с помощью чат-ботов.
Подобные файлы злоумышленники создают и с известными личностями, где те рекламируют сомнительные сайты и услуги. Как отмечают юристы, бороться с распространением дипфейков непросто. Наши корреспонденты освещают все важные события города.
После этого он сделал запрос в штаб-квартиру компании и понял, что был обманут. Во время видеозвонка его участники практически не общались с сотрудником, а по большей части давали ему указания. В какой-то момент встреча внезапно завершилась, но и это не смутило работника. После этого мошенники поддерживали связь с жертвой через платформы обмена мгновенными сообщениями, электронную почту и видеозвонки один на один. В полиции сообщили, что в общей сложности они обратились к двум или трём сотрудникам компании. Старший инспектор полиции Тайлер Чан Чи-Винг сказал, что существует несколько способов проверить реальность личности человека на видеовстрече.
Подделали голос внучки. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч
С помощью специальных программ злоумышленники подделывают голоса родных, друзей или коллег. Благодаря бурно развивающемуся искусственному интеллекту (ИИ) мошенники теперь способны воспроизвести голос знакомого человека, а в некоторых случаях даже его лицо. Из-за комплексного и детализированного подхода мошенники сейчас могут подделать буквально все. Телефонные мошенники научились подделывать не только номера, но и голоса.
Эксперт по кибербезопасности Ефимов предупредил о возможности создать фейковую аудиозапись
Мошенники научились подделывать человеческий голос для более эффективного вымогательства. Стоит мошеннику загрузить короткий образец аудиоролика из сообщения в социальной сети или голосовой почты (всего 30 секунд), и он может использовать инструменты синтеза голоса с помощью искусственного интеллекта. Мошенники с использованием клонированного голоса заявили Дженнифер ДеСтефано (справа), что похитили ее дочь Брианну (слева). Мошенники начали подделывать голоса с помощью нейросети. Александра показывает переписку – от ее имени мошенники отправили знакомым десятки сообщений. Голоса других людей злоумышленники имитируют при помощи специальных программ — этой уловкой они вынуждают потерпевших сообщать различные сведения или совершать денежные переводы.
Мошенники начали использовать поддельные голоса родственников жертв
Один из новых способов кражи денег: звонки под видом работника службы безопасности банка. Жертву предупреждают, что скоро ей позвонят из полиции, — и обманутый человек диктует данные банковской карты. Также развивается технология deepfake: преступники подделывают голос близких людей жертв.
Потом женщине объяснили, что деньги необходимо переместить на новый «безопасный счёт». Кроме того, врача убедили взять кредит для погашения якобы оформленных на неё заявок в нескольких банках.
Александра послушно следовала советам и 20 июля отправилась в банк. Там она оформила кредит и обналичила деньги. Звонивший просил внести сумму на счёт и перевести через приложение «Мир Пэй». Но телефон женщины не позволял скачать и установить это программное обеспечение.
Тогда мошенник убедил Александру купить другой смартфон и осуществить операцию через него. Женщина так и поступила. Затем по просьбе голоса в трубке она ещё дважды повторила действия с кредитом и переводом денег в двух других банках.
Только совокупность корректных данных позволит открыть доступ к управлению счетом или другими услугами Шамиль МагомедовIT-эксперт «Кроме того, представители банковских структур не раз подчеркивали, что операторы, принимающие звонок, также снабжены подробными инструкциями и могут различить "красные флажки", сигнализирующие о возможных мошенниках», — отметил собеседник. Цифровая гигиена При этом Магомедов напомнил, что забывать о простых правилах цифровой гигиены не стоит.
Если вашего голоса нет в базах данных, и вы не дали согласие на доступ к своим данным с помощью биометрии, то и преступники не смогут "притвориться" вами», — сообщил эксперт. Во-вторых, следует внимательно относиться к тому, кто и с какого номера звонит. В этом вопросе лучше проявить осторожность и сбросить подозрительный звонок, особенно если он идет через мессенджер, связавшись с банком самостоятельно по официальному телефону, указанному на обороте банковской карты.
Так, школьница отдала 275 тысяч рублей мошенникам, которые сгенерировали голос ее бабушки. Подобные файлы злоумышленники создают и с известными личностями, где те рекламируют сомнительные сайты и услуги. Как отмечают юристы, бороться с распространением дипфейков непросто.