Напомним, ранее россиян предупредили о новом способе мошенничества в «Телеграме» и во «ВКонтакте» — мошенники научились подделывать голосовые сообщения в мессенджерах с помощью искусственного интеллекта. «Таймырский телеграф» – Мошенники продолжают совершенствоваться: теперь они стали использовать специальную программу, с помощью которой подделывают голоса.
Мошенник подделал голос друга и выманил 50 000 ₽
Искусственный интеллект можно заставить говорить чьим-то голосом, - рассказывает Алексей Раевский. Но пока это все работает еще не совсем идеально. Например, человек на нем может выглядеть с шестью пальцами. Пока это все эксперименты, но вполне вероятно, что в будущем они будет развиваться и совершенствоваться. Как все происходит? Искусственный интеллект «обучают» определенному голосу. Затем вшивается определенный текст, а нейросеть озвучивает его. Таким образом, формируется файл, который зачитывает определенное сообщение. Например, «Маша, отправь мне срочно деньги». Однако, чтобы создать такое сообщение, мошенникам необходимо иметь много исходных записей нужного голоса.
Но где они их берут? На днях актер народный артист России Сергей Безруков рассказал, что чуть не стал жертвой аферистов. Он получил голосовое сообщение от своего «коллеги по цеху» - Константина Хабенского. Якобы тот ищет инвесторов для строительства медицинского комплекса для детей-инвалидов.
Часто злоумышленники пользуются одной из главных уникальных функций нейросетей — генерированием несуществующих в реальности видео, аудио и изображений, в попытках обмануть не самую внимательную жертву. Специалист «Лаборатории Касперского» Владислав Тушканов рассказал, как можно опознать фейковое видео, чтобы не попасть в ловушку мошенника. Сейчас лучше смотреть на овал лица, — объяснил специалист «Лаборатории Касперского».
Есть технологии, которые помогают наложить маску лица на время звонка. При видеозвонке, например, можно попросить человека повернуться в профиль. Но что в основном делают мошенники: берут самую дешевую камеру, заходят в самую темную комнату, напротив монитора и действуют. Но части просодики, паузы и манеризмы нет. Поэтому уже после двух предложений, сказанных мошенником, всё будет понятно, — утверждает Владислав Тушканов. С подозрительной текстовой информацией куда проще, нужно просто искать подтверждающие эту информацию факты в нескольких источниках и не принимать сразу каких-то решений, основываясь на полученном вами текст. Личные данные остаются в интернете навсегда Создание дипфейков, фишинговых ссылок и вредоносных ПО — не единственная полезная для хакеров функция искусственного интеллекта.
Нередко и сам человек предоставляет им неограниченные возможности для совершения на себя атак. Руководитель ЦУР Волгоградской области Олег Егорушин рассказал о том, что позволяет злоумышленнику воровать данные с помощью чат-ботов. К сожалению, не все мы соблюдаем безопасность относительно того, что пишем, публикуем, пересылаем в личных сообщениях и так далее, — рассказывает Олег Егорушин. И даже если я зачистил во «ВКонтакте» свои фотографии, которые выкладывал пятнадцать лет назад, то на сайтах-клонах они хранятся до сих пор. Найти всё это не составит злоумышленнику никакого труда. Даже если вы в переписке отправляли сообщения со своими личными данными, это всё остается в сети, и мошенник может это всё вытащить. По словам экспертов, мы сами оставляем свои данные в Сети Источник: Полина Авдошина По словам руководителя ЦУР Волгоградской области, нейросети могут помочь злоумышленнику сгенерировать любой код, программу, которая вытащит с гаджета пользователя все личные данные.
Когда вы разрешите какому-то приложению доступ к вашим фотографиям и данным, мошенники автоматом смогут это всё отгружать по ключевым фразам, по фото, — объясняет Олег Егорушин. Но что с нейросетями, что без них, мошенникам легко действовать, если вы не соблюдаете безопасность. Информацию, которой вы сами делитесь с сетью, зачистить уже никак не получится. Всё, что попало в интернет, оставляет за собой цифровой след, и неважно, личная это переписка или какая-то публикация. Поэтому безопасность человека только в его руках. К слову, не все злоумышленники стараются облегчить себе свою работу, воруя личные данные человека и создавая фейковые материалы с его участием с помощью нейросетей.
Трухачев добавил, что эти технологии также используют для создания информационных вбросов.
Например, копируют речь президента или других известных личностей. В таком случае, по словам эксперта, нужно перезвонить на настоящий номер человека и уточнить, так ли это на самом деле. Сергей добавил, что преступники для подделки голоса используют видео. При этом важно использовать надежную комбинацию цифр, букв и знаков препинания.
Используя алгоритм искусственного интеллекта, они создают контент, который выглядит или звучит реалистично. Это может быть видео или даже просто аудио Бакли Им требуется очень мало обучающих данных, и они могут создать нечто достаточно убедительное с помощью обычного ноутбука, который может купить каждый По сути, дипфейки берут примеры видео- или аудиозаписей, и учатся точно воссоздавать их движения или голос. Это может быть использовано для того, чтобы поместить лицо на тело другого человека, заставить его голос читать определенный текст или же совершать вредоносные действия. Несмотря на то, что технология кажется сложной, на самом деле сделать дипфейк самостоятельно на удивление просто. Для этого достаточно иметь в открытом доступе видеозапись или запись голоса и недорогое программное обеспечение. Это занимает секунды, а не минуты или часы, и любой, у кого есть немного времени и доступ к YouTube, может понять, как это сделать", - объясняет Бакли. Появились удивительные технологии, которые еще недавно были бы научной фантастикой. Это прекрасно для инноваций, но есть и обратная сторона, когда эта технология попадает не в те руки". Мир мошенничества с дипфейками С момента своего появления deepfake использовались во вредоносных целях, начиная от подделки политических речей и заканчивая изготовлением порнографических материалов. Однако в последнее время их использование находит все большее применение в мире мошенничества. В последнее время участились случаи мошенничества с использованием искусственного интеллекта, когда человеку звонит или даже звонит по видеосвязи его близкий человек, говоря, что он попал в беду и ему нужны деньги", - рассказывает Бакли. Сведения о человеке берутся из данных, доступных в Интернете.
Мошенники активно выманивают образцы голоса россиян
ЦБ: Мошенники начали подделывать голоса родных и знакомых россиян | Как мошенникам удается подделать голос Нейросети на базе искусственного интеллекта (ИИ) могут имитировать голос позвонившего вам знакомого или родственника. |
Подделали голос внучки. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч | О том, что мошенники подделывают голос «умного» помощника «Алиса» для того, чтобы обзванивать россиян и вводить их в заблуждение, сообщили в «Яндексе». |
Содержание
- Подводим итог
- Мошенники научились подделывать ваш голос: стоит ли опасаться
- Греф рассказал о мошенниках, подделывающих голос и изображение клиентов банков
- "Аудиодвойник" бизнесмена из Москвы обманом заполучил кассу его фитнес-клуба, пока он отдыхал
Могут ли мошенники подделать голос и украсть деньги со счета?
Эксперты по кибербезопасности отмечают рост использования аудиодипфейков для мошеннических звонков в мессенджерах — подделку голоса руководителя компании для авторизации перевода средств. Также развивается технология deepfake: преступники подделывают голос близких людей жертв. С помощью специальных программ мошенники воспроизводят голоса родных потенциальной жертвы.
Мошенники начали подделывать голоса: Луки.ру выяснили, смогут ли они оформить кредит в банке
После того, как вымогатели получают доступ к голосовым сообщением, с помощью сервисов ИИ синтезируются новые голосовые сообщения с необходимым текстом. Это что-то наподобие дипфейка, но только в аудиоформате. Далее все элементарно: мошенники рассылают творчество нейросети списку контактов взломанного аккаунта, а также во все чаты, где состоит пользователь. К аудиосообщению с просьбой одолжить денег добавляют отфотошопленную банковскую карту. Как правило, злоумышленники просят деньги в долг. Однако мошенники используют мощные психологические приемы, чтобы запутать жертву. Например, сообщают, что случилась беда и нужно передать деньги курьеру, который сейчас приедет, рассказала Финтолку эксперт по банкротству компании «Финансово-правовой альянс» Евгения Боднар. И здесь, к сожалению, нередки случаи, когда пострадавший самостоятельно оформляет заем и переводит средства, следуя указаниям мошенников. Конечно, чаще всего, на эту удочку попадаются пожилые люди», — сообщила эксперт. Топ-5 схем обмана на «Авито»: помогаем обмануть мошенников Реальный кредит при фейковом голосе Оформить ссуду с помощью подделки голоса мошенники, скорее всего, не могут, утверждает юрист Евгения Боднар. Все дело в том, что банки не оформляют кредит только по одному звонку: необходимо пройти аутентификацию например, назвать секретное слово или код из СМС.
Между тем «Сбер» предупредил о новой схеме мошенничества, которая осуществляется при помощи трансляции экрана смартфона. Она выглядит так: мошенники звонят в мессенджер с фейкового аккаунта с номером 900 и логотипом банка и спрашивают, обновлял ли пользователь приложение банка. Затем человеку звонит второй злоумышленник, якобы для идентификации личности клиента по биометрии. Он просит включить режим демонстрации экрана и зайти в мобильное приложение банка.
Трансляция экрана позволяет мошенникам увидеть номера карт, суммы на счетах, коды в смс от банка и другую информацию. Данный способ мошенничества появился около двух месяцев назад, рассказывает эксперт по информационной безопасности, генеральный директор Phishman Алексей Горелкин. Алексей Горелкин эксперт по информационной безопасности, гендиректор Phishman «Такой способ был, он применялся на школьниках: покажите, а что у вас за карта, а у ваших родителей какие карты, зайдите к себе в телефон, в общем, была такая схема, чтобы люди, которые не шибко разбираются в цифровых технологиях, но при этом имеют доступ к устройству родителей, могли предоставить злоумышленникам необходимую информацию. Я надеюсь, что такая схема все-таки не самая рабочая, потому что людей должны настораживать такие действия, которые ранее от них не просил ни банк, ни кто-либо еще.
Благодаря в том числе просветительской деятельности, все меньше и меньше получается успешных атак. Злоумышленники почему и усложняют свои атаки, делают звонки не с одного номера, а с двух, трех, четырех, там ФСБ как будто звонит, кто-то еще как будто звонит.
Мошенники начали подделывать голоса: Луки.
Как мошенникам удается подделать голос Нейросети на базе искусственного интеллекта могут имитировать голос позвонившего вам знакомого или родственника. Для этого мошенникам требуется образец голоса, который без труда можно найти в мессенджере, где практически все пользователи отправляют голосовые сообщения. Подделка голоса осуществляется при помощи различных сервисов и программ, способных создавать голосовые аналоги человека на основе записанных образцов.
Качество синтезированного голоса зависит от точности и количества записанных образцов. Благодаря современным технологиям, хакерам достаточно всего 20-секундного фрагмента разговора для создания копии голоса любого человека. Мошенники добывают образцы голоса потенциальной жертвы разнообразными методами: используют общедоступные аудио- и видеозаписи из интернета, а также данные, полученные при утечках биометрической информации.
Кроме того, они могут записать голос человека, просто позвонив ему, и использовать диктофон для записи. Иногда мошенники получают доступ к аккаунту пользователя в мессенджере, применяя различные методы, такие как фишинг и социальная инженерия.
Posted 31 мая 2023,, 12:01 Published 31 мая 2023,, 12:01 Modified 31 мая 2023,, 12:03 Updated 31 мая 2023,, 12:03 Подделали голос внучки. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч 31 мая 2023, 12:01 Полиция занимается расследованием уголовного дела.
В Кизеле полиция возбудила уголовное дело в отношении 22-летнего жителя Очера. Его подозревают в совершении мошенничества ч. В дежурную часть полиции Кизела обратилась 87-летняя местная жительница, которая рассказала, что ей на стационарный телефон позвонила неизвестная девушка.
Мошенники научились подделывать голоса. Как не попасться на уловку
Эксперт по кибербезопасности Ефимов предупредил о возможности создать фейковую аудиозапись | Для обмана граждан мошенники начали подделывать голоса родных и знакомых потенциальной жертвы. Об этом, как передаёт 17 января РИА Новости, предупреждает Центробанк. |
Мошенники начали подделывать голоса: Луки.ру выяснили, смогут ли они оформить кредит в банке | Оформить ссуду с помощью подделки голоса мошенники, скорее всего, не могут, утверждает юрист Евгения Боднар. |
Мошенники подделывают голоса с помощью нейросетей: как защитить свой голос и не стать их жертвой | Те, кто разбирается в технологиях мошенничества, без труда подделают не только голос, но и другие личные данные. |
Мошенники с помощью искусственного интеллекта запугивают родителей голосами родных детей | Из-за комплексного и детализированного подхода мошенники сейчас могут подделать буквально все. |
Информационная безопасность операционных технологий | Мошенники научились подделывать голоса начальников для выманивания денег. |
Подделали голос внучки. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч
Мошенники начали подделывать голоса: выяснили, смогут ли они оформить кредит в банке. С помощью специальных программ мошенники воспроизводят голоса родных потенциальной жертвы. Мошенники ради обмана россиян подделывают голоса родных и близких потенциальных жертв — об этом рассказали в Центробанке РФ. Мошенники для обмана россиян стали подделывать голоса родных и знакомых жертвы. Мошенники научились подделывать человеческий голос для более эффективного вымогательства.
Как мошенникам удается подделать голос?
- В Петрозаводске истекающий кровью мужчина выпрыгнул в окно и добежал до магазина
- Мошенники начали использовать поддельные голоса родственников жертв | Правмир
- Мошенники подделывают голоса и крадут деньги – ГТРК «Коми Гор»
- Московские новости
- Мошенники могут подделать чужой голос, чтобы украсть деньги
- Информационная безопасность операционных технологий
Мошенники научились подделывать ваш голос: стоит ли опасаться
По их мнению, в будущем году злоумышленники будут переходить на клиентов небольших финансовых организаций, которым звонки такого рода поступали редко. Также эксперты предполагают, что участятся сообщения и звонки о фиктивных выигрышах, которые можно будет забрать только после оплаты некой комиссии. Центробанк РФ составил список основных признаков телефонных мошенников. Также клиента должно насторожить, если разговор с незнакомцем касается перевода денег или оплаты чего-либо. Еще одним из признаков специалисты называют поступление от собеседника "выгодных" предложений или, наоборот, попытки запугать возможной потерей денег, а также сильное моральное давление и требование немедленного принятия решения. Можно ли распознать по голосу телефонного мошенника? Руководитель аналитического центра Zecurion Владимир Ульянов рассказал Москве 24, что мошеннические схемы, связанные с подменой голоса, встречаются в единичном варианте. По его словам, сейчас мошенники пользуются более простыми схемами, которые до сих пор, к сожалению, остаются эффективными.
Речь идет об информации, которую они получают из-за утечек данных. Она происходит из систем госструктур или коммерческих компаний: розничных магазинов, банков, страховых.
Чтобы создать такое сообщение, мошенникам необходимо иметь много исходных записей нужного голоса Фото: Мария ЛЕНЦ Помните, еще несколько лет назад вам на телефон могли позвонить мошенники, и, представившись именем родственника, взволнованно кричали, что попали в непростую ситуацию, например, в ДТП и теперь им срочно нужны деньги? И если по началу такие схемы срабатывали, то спустя время перестали. Сейчас же аферистам даже не нужно играть роль, попавшего в беду родственника или знакомого! Чтобы выманить сбережения с потенциальных жертв, они используют нейросеть, с помощью которой имитируют голоса их реальных близких или приятелей. А их последнее время не мало. Один из последних случаев произошел с 23-летней иркутянкой, блогером Анастасией Богдановой. В середине февраля девушка получила несколько голосовых сообщений в мессенджере от подруги, в которых просила одолжить 40 тысяч рублей.
Поэтому я уточнила сумму и счет, на который нужно отправить деньги. Подруга отправила якобы карту своей мамы. И в это время стали приходить голосовые. Два сообщения были буквально на две секунды. В них говорилось: «Люблю! Свои деньги я так и не получила назад. Как мошенники используют голосовые дипфейки и можно ли защититься от такого обмана?
Telegram 0 Мошенники научились использовать современные технологии DeepFake для имитации голоса, сообщили в Роскачестве. При этом аферистам достаточно получить небольшой фрагмент речи человека, чтобы воссоздать не только тембр, но и интонации и манеру разговора. Все это затем используется для самых разнообразных схем обмана.
В какой-то момент трубку перехватил мужчина, который сказал женщине, что той придётся заплатить выкуп в 800 000 юаней почти 10 миллионов рублей на момент публикации , чтобы увидеть дочку целой и невредимой. Женщина, как ей и сказали, добавила нужный контакт в свой аккаунт wechat. К счастью, она не потеряла окончательно присутствия духа и сказала собеседнику что крупные переводы надо подтверждать в банке. В это же время её муж проверял действительно ли звонили с телефона дочери. Номер высвечивался её, но дозвониться родители не смогли. В конечном итоге мать с отцом «похищенной» отправились в полицейский участок. Там воспользовались своим доступом к телекоммуникационной базе данных и определили — входящий звонок на самом деле шёл с виртуального номера, который начинался на «00» и был подменен на номер дочери. Это дало повод полицейским сказать родителям, что те столкнулись с мошенниками и что не надо пересылать им каких-либо денег. В конечном итоге, разумеется, именно так и оказалось. Девушка оказалась жива-здорова, никто её не похищал, а родители не потеряли свои деньги. Что нужно сделать, чтобы не обманули телефонные мошенники, которые используют нейросети? Современные нейросети с большой убедительностью подделывают голос в потоковом режиме и с меньшей способны подделать видео в живом разговоре. Последнее, впрочем, упирается в доступную вычислительную мощность и при наличии некоторого количества видеокарт можно будет убедительно изменить свою внешность в хорошем разрешении и в режиме реального времени. Перезвони Итак, вам позвонил кто-то из друзей и родственников и заявил, что ему срочно нужны деньги. Первым делом необходимо позвонить на номер этого человека. Одно дело подделать номер для исходящего звонка, другое дело для входящего. В идеале, стоит совершить видеозвонок на случай того, что технические возможности мошенников ограничены только подделкой голоса. Если же есть сомнения даже во время видеозвонка, то стоит спросить собеседника о чём-то, что известно только ему.
Почему сработал обман
- Мошенники научились подделывать голоса и видео. Как распознать подмену | Банки.ру
- Мошенники могут подделать чужой голос, чтобы украсть деньги
- Мошенники придумали новую схему развода с подменой голоса. Будьте бдительны
- Роскачество: мошенники научились подделывать голоса, чтобы красть деньги
- ЦБ: мошенники стали обманывать россиян, подделывая голоса их родных | Аргументы и Факты
Прозвони мне, прозвони. IT-эксперты рассказали, как мошенники подделывают голоса россиян
В 2020 году мошенники клонировали голос директора банка в ОАЭ и использовали его для ограбления финучреждения. Мошенники всё активнее используют нейросети, чтобы подделывать голоса или лица знакомых доверчивых граждан и своровать их кровные. Нередко аферисты подделывают голос родственников или знакомых потенциальной жертвы. Из-за комплексного и детализированного подхода мошенники сейчас могут подделать буквально все. Глава Сбербанка Герман Греф сообщил о телефонных мошенниках, которые совершают атаки на клиентов банков с помощью подделки голоса.
Киберпреступники освоили технологию замены голоса для шантажа и мошенничества — эксперт
Мошенники вышли на новый уровень: они подделывают не только номера телефонов,но даже голоса звонящих! Теперь мошенники с помощью нейросетей могут подделывать голоса прямо во время разговора. Обычно мошенники надевают на себя маску родственника жертвы и меняют голос, а потом рассказывают душераздирающую историю о том, как они попали в беду и что им срочно нужны деньги. Мошенничество Интернет-мошенники Телефонные мошенники Взлом Видео Вертикальное видео Telegram (ссылка). В Банке России предупредили об использовании мошенниками программ для подделки голосов с целью обмана россиян, сообщает РИА Новости со ссылкой на ЦБ РФ. В Электрогорске задержали мужчину, который при помощи голоса умудрился обогатиться более чем на четверть миллиона рублей.
Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян
Как мошенникам удается подделать голос Нейросети на базе искусственного интеллекта (ИИ) могут имитировать голос позвонившего вам знакомого или родственника. Мошенники всё активнее используют нейросети, чтобы подделывать голоса или лица знакомых доверчивых граждан и своровать их кровные. Тем более что мошенники научились даже подделывать голоса, используя специальные программы. Мошенники стали использовать для вымогательства денег созданные ИИ голосовые сообщения от имени владельца аккаунта в соцсетях или мессенджерах. Нередко аферисты подделывают голос родственников или знакомых потенциальной жертвы. Полезные новости: мошенники подделывают голоса родных и близких, индексация маткапитала и ещё 40 выплат и другое.