Новости мошенники подделывают голос

Эксперты по кибербезопасности отмечают рост использования аудиодипфейков для мошеннических звонков в мессенджерах — подделку голоса руководителя компании для авторизации перевода средств. Стоит мошеннику загрузить короткий образец аудиоролика из сообщения в социальной сети или голосовой почты (всего 30 секунд), и он может использовать инструменты синтеза голоса с помощью искусственного интеллекта.

Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян

Греф рассказал о мошенниках, подделывающих голос и изображение клиентов банков 27 января 202114:26 Редакция НСН Поделиться Глава Сбербанка Герман Греф сообщил о телефонных мошенниках, которые совершают атаки на клиентов банков с помощью подделки голоса. По его словам, злоумышленники используют технологии искусственного интеллекта, так называемой технологии дипфейк, когда могут быть смоделированы изображение и голос человека, передает РИА Новости.

И таким образом, вы будете знать, что звонят действительно родные и близки, а не мошенники с нейросетью. Имитация образа Подделать можно не только голос, но и образ. При помощи методики синтеза медиаконтента, основанной на искусственном интеллекте, удается наложить ненастоящие изображение или видео на реальные.

Ее продукты можно видеть в сети уже сейчас, часто в качестве пародий и розыгрышей. За рубежом злоумышленники опробовали дипфейки при устройстве на удаленную работу в сфере IT для получения доступа к базам данных. Однако созданные видеоклоны выдают свою искусственность темпом речи, асинхронностью и неестественными эмоциями. Сергей Кузьменко, руководитель направления информационной безопасности Центра цифровой экспертизы Роскачества: «Новые технологии используются не только передовыми IT-компаниями, но и вовсю группами мошенников.

Волна дипфейков уже захлестнула Юго-Восточную Азию и Африку. До России она тоже непременно дойдет в ближайшее время и будет работать по схеме звонков якобы родственников, например, пожилым людям.

Например, в СберБанке в качестве биометрического идентификатора для проведения платежных операций используется не голос, а лицо человека. Банки сохраняют ваш голос в биометрической базе только для того, чтобы автоматически распознавать его при звонках в техническую службу поддержки банка. К тому же существует опасение, что мошенники запишут ваш голос и передадут в Единую биометрическую систему или биометрические системы банков. Однако, несмотря на возможность утечки биометрии из банковского хранилища, использовать ее для несанкционированной идентификации невозможно. Причина состоит в самом процессе идентификации.

Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков. При этом восстановить по таким данным фото или голос человека практически невозможно. Помните, что банки заинтересованы в конфиденциальности данных своих клиентов, ведь несанкционированные операции могут нанести удар по их репутации и привести к финансовым потерям. Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного человека. Например, позвонивший вам в мессенджер ребенок, родственник или знакомый просит срочно перевести небольшую сумму денег. Причина может быть какая угодно — ребенку срочно нужно сделать подарок другу или учительнице, пожилому родственнику не хватает небольшой суммы на покупку лекарств в аптеке. Звонивший под разными предлогами уговаривает отправить деньги на чужую карту или перевести их по чужому номеру телефона.

Разработчики искусственного интеллекта приложили немало усилий, чтобы воспроизводить речь людей. В 2024 году мошенники приняли эту разработку с радостью и начали подделывать разговор, выдавая себя за родственников и друзей телефонных жертв. Сложно повесить трубку, когда в трубке раздается «голос» матери, дочери, подруги, которая якобы попала в беду и просит отправить деньги на проверенный счет. На это всё и рассчитано. Чтобы подделать чей-то голос, мошенникам достаточно использовать недорогой онлайн-инструмент на базе искусственного интеллекта, который анализирует уникальные особенности голоса любого человека и воспроизводит его с учетом пола, возраста и даже акцента. Причем для клонирования голоса программе нужно проанализировать всего лишь 30-секундный отрывок реального голоса, который сейчас без труда можно найти в аккаунте любого пользователя соцсетей. Затем телефонному мошеннику остается раздобыть контакт жертвы и никак не выдать себя во время разговора. А говорить можно все что угодно: онлайн-инструменты позволяют произносить напечатанный текст голосом любого человека. Что делать, чтобы не попасться на уловку Если вам поступил звонок, где знакомый голос просит вас о финансовой помощи, трезво оцените ситуацию. Действительно ли это ваш родственник, друг или коллега?

Всё ли нормально в его интонации и манере речи?

Роскачество: мошенники научились подделывать голоса, чтобы красть деньги

Мошенники подделывают голоса, притворяясь вашими родственниками или знакомыми Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного. Чтобы мошенники не подделали ваш голос и не позвонили кому-то от вашего имени, не разговаривайте с незнакомыми людьми по телефону и не называйте слова "да" и "нет". и аудиодипфейки. Мошенники с использованием клонированного голоса заявили Дженнифер ДеСтефано (справа), что похитили ее дочь Брианну (слева).

"Аудиодвойник" бизнесмена из Москвы обманом заполучил кассу его фитнес-клуба, пока он отдыхал

Мошенники научились подделывать голоса начальников для выманивания денег. Мошенники начали подделывать голоса: выяснили, смогут ли они оформить кредит в банке. и аудиодипфейки. Мошенники научились подделывать голоса начальников для выманивания денег.

Роскачество: мошенники научились подделывать голоса, чтобы красть деньги

Целью мошенников стал сотрудник финансового отдела филиала, который получил, по всей видимости, фишинговое сообщение. В середине января ему поступило требование якобы от финансового директора компании в Великобритании, заявившего, что необходимо провести секретную транзакцию. Сотрудник испытывал сомнения до того момента, пока его не пригласили на групповой созвон. Там он увидел и якобы финансового директора компании, и других сотрудников. После этого он сделал запрос в штаб-квартиру компании и понял, что был обманут.

Во время видеозвонка его участники практически не общались с сотрудником, а по большей части давали ему указания.

Руководитель британской фирмы не сомневался, что разговаривает со своим руководителем, он узнал акцент и тембр голоса начальника. При этом мошенники звонили британцу несколько раз. После получения первого платежа они сказали, что якобы немецкая компания отправила британской сумму на возмещение убытков. Затем они позвонили в третий раз и запросили очередной платеж.

Никто от этого не защищён, поэтому смотрим, с какого телефона вас набирают, насколько человек владеет той информацией, которую знаете только вы вдвоём», — продолжает эксперт. Эксперт рекомендует для защиты от мошенников придумать со своими родными и близкими кодовые слова. Они помогают определить, кто звонит — живой человек или программа.

Синтез голоса Для копирования голоса используются технологии речевого синтеза. В специальную программу загружаются образец голоса реального человека и текст, который нужно произнести. В качестве звукового материала используются записи телефонных звонков в том числе с роботами , видеозаписи, размещённые в соцсетях, и голосовые сообщения в мессенджерах. Искусственному интеллекту достаточно трёх секунд речи оригинального носителя, чтобы дипфейк получился убедительным. Но удалять аудиосообщения после прослушивания не поможет. Мы же не можем молчать всё время.

Чтобы не попасться в руки мошенников, нужно спросить такую информацию, которая известна только вам и родственникам. Например, про домашних животных, общих друзей или вашу последнюю с ним встречу.

Это сразу даст понять, кто с вами на связи. Тем временем, россияне начали сталкиваться со случаями мошенничества с помощью полисов обязательного страхования. Эксперт по кибербезопасности Александр Дворянский рассказал 360.

Роскачество предупредило о новой мошеннической схеме с использованием искусственного интеллекта

Руководитель британской фирмы не сомневался, что разговаривает со своим руководителем, он узнал акцент и тембр голоса начальника. Мошенники подделали голос директора компании с помощью искусственного интеллекта и украли 243 тысячи долларов. Напомним, ранее россиян предупредили о новом способе мошенничества в «Телеграме» и во «ВКонтакте» — мошенники научились подделывать голосовые сообщения в мессенджерах с помощью искусственного интеллекта. Мошенники научились подделывать голоса родных потенциальной жертвы. Кроме того, они создают адресные схемы, которые составлены по цифровому портрету человека, сообщили «РИА Новости» в Центробанке. Мошенничество с клонированием голоса появилось относительно недавно и уже встречается в западных странах.

Мошенники активно выманивают образцы голоса россиян

Вместе с юристами мы разбираемся, как россиянам обезопасить себя от новой мошеннической схемы и что делать, если вы все же стали жертвой. Как мошенники научились подделывать голос с помощью нейросети? Новая схема опасна тем, что она не выглядит как обман и работает абсолютно легально. Мошенники размещают объявления о поиске людей для озвучки рекламных роликов или даже фрагментов фильмов или сериалов.

За эту работу, разумеется, предусмотрена оплата, которую, как правило, люди действительно получают — именно поэтому никаких подозрений подобные схемы не вызывают. Проблемы начинаются уже после отправки голосовой записи и получения оплаты за нее. Злоумышленники используют полученные образцы голосов для обучения нейросетей, которые впоследствии генерируют голосовые сообщения, которые практически невозможно отличить от настоящих.

Их они рассылают знакомым и близким жертвы, выманивая деньги под разными предлогами. Как мошенники записывают голоса других людей? Это не единственная преступная схема с использованием голосовых записей жертвы для кражи денег у его знакомых.

Еще в январе пользователи Telegram столкнулись с похожим, но чуть более примитивным алгоритмом обмана. Мошенники получали доступ к аккаунту пользователя, просматривали историю переписок, чтобы максимально скопировать манеру общения реального человека, и отправляли людям из списка контактов сообщения с просьбой перевести деньги. Для убедительности после нескольких текстовых сообщений они присылали голосовое, которое или было сгенерировано с помощью искусственного интеллекта, или смонтировано из фрагментов старых аудиосообщений из переписок.

Как защитить свой голос от мошенников?

Возьмем любой ваш сюжет, тут вы говорите что-то, мы возьмем этот голос, дальше закинем в программу", — рассказал специалист по информационной безопасности Роберт Симонян. Нейронная сеть думает и достаточно быстро выдает черновую версию. По тексту, который ей написали. Похоже, кажется, близкие и родные, конечно, заметят разницу, а вот остальные — нет. Хотя это — стопроцентный фейк. От массового применения нового типа интернет-попрошайничества пока оберегают сами технологии.

На создание копии голоса нейросети сейчас нужно много времени. Ну и также стоит понимать, что конечный результат тоже не всегда идеален, приходится что-то обрабатывать", — рассказал Симонян. Подделку голоса можно отличить как раз по чрезмерной обработке. Если в записи сильно шумит ветер, громко едут машины, лают собаки — стоит насторожиться.

Можете также связаться с друзьями и родственниками просителя, чтобы тот человек, которого взломали, быстрее это осознал и принял необходимые меры: поменял пароль в аккаунте, удалил или заблокировал через службу поддержки.

Самый важный принцип здесь — не торопиться переводить деньги. Мошенники стараются ввести жертву в замешательство — не дать ей время оценить обстановку и свои действия. Поэтому дождитесь от человека ответа через другие каналы связи», — настаивает эксперт. Стоит также критически относиться к сообщению с просьбой о материальной помощи. Хотя нейросети развиваются бешеными темпами, все же они далеки от идеала.

Несостыковки в звуке, нечеткое произношение, помехи в микрофоне, общение односложными фразами — все это может выдать мошенника. При любом сомнении стоит поиграть в сыщика и задать человеку вопрос, ответ на который может знать только он, рекомендуют специалисты. Мошенники придумали новую схему хищения пятитысячных банкнот Эксперты полагают, что схем с использованием ИИ будет только больше, и это подтолкнет социальные сети и мессенджеры к развитию охранных алгоритмов. В ближайшее время они начнут применять поведенческую аналитику, основанную на том же ИИ для защиты своих клиентов от таких атак. При этом на рынке уже сегодня достаточно специальных решений, связанных с анализом аномального поведения пользователей в корпоративных сетях, например, Ankey ASAP.

Для этого нужен был официальный запрос из правоохранительных органов — но не факт, что и после этого банк вернул бы украденное. Обращаться за помощью к полицейским знакомый не стал: не верит, что получится найти преступника. Однажды у его бабушки украли телефон. Она написала заявление и провела несколько вечеров в отделении, давая показания. Прошло два года — в итоге дело закрыли из-за истечения срока давности. Теперь знакомому кажется, что в его случае произойдет примерно то же самое. Позвонить другу по телефону, чтобы убедиться, действительно ли ему нужна помощь. Это единственный надежный способ. Вступать в диалог и задавать проверочные вопросы опасно: у мошенника есть доступ ко всей переписке и он может быстро найти ответ, который вас устроит.

Если друг не отвечает, надежнее всего подождать, пока связь наладится. Деньги редко бывают нужны настолько срочно, чтобы несколько часов имели значение. Например, в нашей истории цена вопроса — всего лишь возможный штраф за небольшую просрочку взноса. Если в чате вас продолжают торопить, это очень подозрительно.

ЦБ: мошенники стали обманывать россиян, подделывая голоса их родных

Мошенники для обмана россиян стали подделывать голоса родных и знакомых жертвы. Мошенники подделывают голоса людей, выманивая таким образом деньги. Мошенники убедили врача оформить три кредита и перевести все свои деньги на неизвестные счета, напугав списанием средств в пользу Украины и ВСУ. Мошенники не подделывали ее голос, но использовали продуманную со всех сторон схему. Как мошенники научились подделывать голос с помощью нейросети? Мошенники убедили врача оформить три кредита и перевести все свои деньги на неизвестные счета, напугав списанием средств в пользу Украины и ВСУ.

Эксперт предупредил, что мошенники могут подделывать голоса родственников жертв

Телефонные мошенники начали осваивать новые технологии, теперь они взяли на вооружение нейросети, которые способны подделывать чужой голос. Мошенники ради обмана россиян подделывают голоса родных и близких потенциальных жертв — об этом рассказали в Центробанке РФ. Такая запись голоса может требоваться мошенникам, поскольку качество записи телефонного разговора недостаточно для обучения нейросетей, говорит бизнес-консультант по информационной безопасности компании Positive Technologies Алексей Лукацкий. Мошенничество с клонированием голоса появилось относительно недавно и уже встречается в западных странах.

Похожие новости:

Оцените статью
Добавить комментарий