Благодаря бурно развивающемуся искусственному интеллекту (ИИ) мошенники теперь способны воспроизвести голос знакомого человека, а в некоторых случаях даже его лицо.
Мошенник подделал голос друга и выманил 50 000 ₽
Полиция в итоге отказалась возбуждать дело, посчитав звонок пранком. Самой же матери это стоило тяжёлого нервного срыва. Та с паническими интонациями крикнула, что она «напортачила», после чего ДеСтефано услышала её плач, а затем раздался угрожающий мужской голос, заявивший, что девочка у него. Мошенники с использованием клонированного голоса заявили Дженнифер ДеСтефано справа , что похитили ее дочь Брианну слева Для пущей убедительности матери дали послушать голос дочери, умолявшей о помощи, после чего дали инструкции, куда приехать с выкупом, предупредив, что если денег не окажется, умрут и мать, и дочь.
Требования матери дать ей возможность поговорить с дочерью злоумышленники проигнорировали. Дженнифер ДеСтефано в это время планировала забрать свою младшую дочь Обри из танцевальной студии, где у той только что закончились занятия. В приступе ужаса и паники она бросилась внутрь, трясясь и умоляя кого-нибудь помочь.
Никакого похищения не было Мать другого ребёнка набрала 911 и попыталась объяснить, что происходит. Диспетчер моментально заподозрила, что речь идёт о мошенничестве, и что в реальности никакого похищения не было.
В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч 31 мая 2023, 12:01 Полиция занимается расследованием уголовного дела. В Кизеле полиция возбудила уголовное дело в отношении 22-летнего жителя Очера. Его подозревают в совершении мошенничества ч.
В дежурную часть полиции Кизела обратилась 87-летняя местная жительница, которая рассказала, что ей на стационарный телефон позвонила неизвестная девушка. Голос звонившей был похож на голос ее внучки.
Для последующего воссоздания речи достаточно всего нескольких минут качественной аудиозаписи, поэтому разговаривать с незнакомцами по телефону не рекомендуется, отметил Пермяков. Но есть общее правило: не разговаривать с мошенниками. Это небезопасно. Задача злоумышленника - как можно дольше держать с вами контакт и за это время нащупать, на что вы реагируете как жертва, и использовать.
Так что даже если бы не было дипфейков, разговор с мошенниками - очень плохая идея.
Как распознать дипфейк: Неестественная мимика — движения губ не попадают в такт с произносимыми словами, одно и то же выражение глаз, не видно смены эмоций. Низкое разрешение, пикселизация или нечеткость изображения, особенно в областях с активной мимикой — брови, уголки рта.
Звук опережает картинку или не успевает за движениями персонажа. Распознавать подделки помогают и сами нейросети. Технологии создания и обнаружения дипфейков будут усиленно развиваться в будущем.
По словам Кузьменко, для обычного пользователя лучший способ защититься от дипфейков — быть бдительным, обращаться к надежным источникам информации и следить за развитием информационных технологий.
Не дайте себя обмануть! Что придумали телефонные мошенники в 2024г: нейросети, QR и маркетплейсы
ЦБ: Мошенники начали подделывать голоса родных и знакомых россиян — Большой город | Мошенники начали подделывать голоса: выяснили, смогут ли они оформить кредит в банке. |
Мошенник обманывал людей, подделывая голоса близких по телефону | 360° | Мошенники начали подделывать голоса с помощью нейросети. Александра показывает переписку – от ее имени мошенники отправили знакомым десятки сообщений. |
Украденные голоса: мошенники осваивают новый способ обмана россиян | Главная» Общество» Волгоградцев предупредили о мошенниках, которые подделывают голоса. |
Голос в трубке заставил московского врача перевести мошенникам 3 млн рублей | Мошенники не подделывали ее голос, но использовали продуманную со всех сторон схему. |
Как мошенникам удается подделать голос?
- Мошенник обманывал людей, подделывая голоса близких по телефону | 360°
- Россиян начали обманывать при помощи искусственного интеллекта - 04.07.2023, ПРАЙМ
- Могут ли мошенники подделать голос и украсть деньги со счета?
- Украденные голоса: мошенники осваивают новый способ обмана россиян // Новости НТВ
- Мошенники придумали новую схему развода с подменой голоса. Будьте бдительны
Мошенники подделывают голоса и крадут деньги
Проверить подлинность подделанного голоса или видео можно лишь технически, предупреждает Семенычев. Мошенники стали использовать для вымогательства денег созданные ИИ голосовые сообщения от имени владельца аккаунта в соцсетях или мессенджерах. Напомним, ранее россиян предупредили о новом способе мошенничества в «Телеграме» и во «ВКонтакте» — мошенники научились подделывать голосовые сообщения в мессенджерах с помощью искусственного интеллекта. Теперь мошенники способны с помощью искусственного интеллекта сымитировать голос знакомого или родственника потенциальной жертвы. сказал Пермяков, отметив, что пока злоумышленники чаще всего ограничиваются подделкой голоса. Мошенники стали использовать для вымогательства денег созданные ИИ голосовые сообщения от имени владельца аккаунта в соцсетях или мессенджерах.
Мошенники начали подделывать голоса: Луки.ру выяснили, смогут ли они оформить кредит в банке
Не дайте себя обмануть! Что придумали телефонные мошенники в 2024г: нейросети, QR и маркетплейсы | Стоит мошеннику загрузить короткий образец аудиоролика из сообщения в социальной сети или голосовой почты (всего 30 секунд), и он может использовать инструменты синтеза голоса с помощью искусственного интеллекта. |
Мошенники подделывают голоса с помощью нейросетей: как защитить свой голос и не стать их жертвой | В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч. |
Мошенники научились подделывать голоса с помощью нейросети — 16.08.2023 — В России на РЕН ТВ | Мошенники всё активнее используют нейросети, чтобы подделывать голоса или лица знакомых доверчивых граждан и своровать их кровные. |
Роскачество предупредило о новой мошеннической схеме с использованием искусственного интеллекта
Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян | Как сообщили специалисты Центра цифровой экспертизы Роскачества, мошенники научились имитировать голос человека с помощью нейросети. |
Мошенники научились подделывать ваш голос: стоит ли опасаться | С помощью специальных программ мошенники воспроизводят голоса родных потенциальной жертвы. |
Украденные голоса: мошенники осваивают новый способ обмана россиян | Как мошенникам удается подделать голос Нейросети на базе искусственного интеллекта могут имитировать голос позвонившего вам знакомого или родственника. |
Мошенники научились подделывать голоса и видео. Как распознать подмену | Банки.ру | Мошенники научились подделывать человеческий голос для более эффективного вымогательства. |
Могут ли мошенники подделать голос и украсть деньги со счета? | Эксперты объясняют от Роскачества | Мошенники начали подделывать голоса с помощью нейросети. Александра показывает переписку – от ее имени мошенники отправили знакомым десятки сообщений. |
Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян
Мошенники всё активнее используют нейросети, чтобы подделывать голоса или лица знакомых доверчивых граждан и своровать их кровные. Телефонные мошенники начали осваивать новые технологии, теперь они взяли на вооружение нейросети, которые способны подделывать чужой голос. Мошенники могут попытаться с полученной записью голоса обратиться в банк, чтобы от имени другого клиента совершить различные финансовые операции.
СПОСОБЫ ЗАЩИТЫ
- Не дайте себя обмануть! Что придумали телефонные мошенники в 2024г: нейросети, QR и маркетплейсы
- Мошенник обманывал людей, подделывая голоса близких по телефону | 360°
- Мошенники активно выманивают образцы голоса россиян
- Нейросеть подделывает голоса ваших близких: как уберечься от новой мошеннической схемы | Финтолк
- Мошенник обманывал людей, подделывая голоса близких по телефону | 360°
- Маскировка под родственника
ЦБ: Мошенники начали подделывать голоса родных и знакомых россиян
Но злоумышленникам больше не нужно напрягать свои связки — они научились действовать убедительнее: подделывать голос и даже изображение любого человека с помощью современных технологий. Теперь им под силу присылать аудиосообщения от имени наших близких с их голосами, а также создавать видеосообщения с их сгенерированными лицами, чтобы заработать на человеческой невнимательности и доверчивости. Разбираемся, как распознать дипфейк и не стать жертвой мошенника в попытке помочь родному человеку. Накатанные схемы уже не в моде, но работают По данным Центрального Банка РФ, в 2023 году злоумышленникам удалось украсть у россиян 15,8 миллиарда рублей.
И несмотря на давно известные ухищрения и методы мошенников, самые наивные из граждан продолжают попадаться на крючок. Так, пенсионерка из Тюмени продала квартиру и отдала 12 миллионов рублей телефонным аферистам , убедившим ее перевести свои сбережения из якобы небезопасного банка на новый счет. Позднее, прямо на глаза у журналистов пожилая женщина решила отправить неизвестным еще одну крупную сумму денег.
Мошенники зарабатывают миллиарды на доверчивых людях Источник: Полина Авдошина В свою очередь, волгоградец стал жертвой фейковой экскортницы и перевел злоумышленнику с женским голосом 97 000 рублей. Мошенником оказался житель Пензенской области, продающий несуществующие эротические услуги, имитируя голос проститутки и выбивающий с «клиентов» дополнительные средства. На смену таким незатейливым, но эффективным схемам обмана, приходят современные технологии, с возможностями которых знаком далеко не каждый простой человек.
Зато злоумышленники уже успели изучить и опробовать для совершения преступлений такие новейшие разработки, как нейросети. Даже начинающие мошенники могут быть опасны Нейросети могут облегчить работу специалистам практически любой сферы, а значит, и автоматизировать часть действий киберпреступников. Растущий интерес среди злоумышленников к широким возможностям нейросетей выявили и эксперты по информационной безопасности.
Аналитик «Лаборатории Касперского» Алиса Кулишенко рассказала, чем чат-боты могут быть полезны для мошенников. А злоумышленники, чтобы избежать их, формируют специальные запросы — джилбрейки. Много теневых площадок даркнета существуют в формате форумов, — поделилась Алиса Кулишенко.
Раньше была нужна коммуникация между человеком и мошенником, но сейчас часть запросов может быть получена автоматически. Даже начинающие злоумышленники могут представлять угрозу за счет получения компетенции от языковых моделей. Специалисты по кибербезопасности предупреждают — нейросети уже используют для обмана пользователей Источник: Полина Авдошина Искусственный интеллект дает неограниченные возможности злоумышленникам создавать новые способы наживы над простым интернет-пользователем.
И аферисты по максимуму экспериментируют с технологическими разработками. Используются они и для создания вредоносных ПО, — утверждает эксперт в области интернет-безопасности. Каждый месяц появляются новые и становятся всё более распространены и позиционируются как аналоги ChatGPT, но сразу со снятыми ограничениями.
Угроза чат-ботов заключается в их способности генерирования фишинговых сообщений и разработке вредоносных ПО и задач.
Однако ведущие российские банки не используют систему управления счетом с помощью голоса. Например, в СберБанке в качестве биометрического идентификатора для проведения платежных операций используется не голос, а лицо человека. Банки сохраняют ваш голос в биометрической базе только для того, чтобы автоматически распознавать его при звонках в техническую службу поддержки банка. К тому же существует опасение, что мошенники запишут ваш голос и передадут в Единую биометрическую систему или биометрические системы банков. Однако, несмотря на возможность утечки биометрии из банковского хранилища, использовать ее для несанкционированной идентификации невозможно.
Причина состоит в самом процессе идентификации. Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков. При этом восстановить по таким данным фото или голос человека практически невозможно. Помните, что банки заинтересованы в конфиденциальности данных своих клиентов, ведь несанкционированные операции могут нанести удар по их репутации и привести к финансовым потерям. Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного человека. Например, позвонивший вам в мессенджер ребенок, родственник или знакомый просит срочно перевести небольшую сумму денег.
Причина может быть какая угодно — ребенку срочно нужно сделать подарок другу или учительнице, пожилому родственнику не хватает небольшой суммы на покупку лекарств в аптеке.
До России она тоже непременно дойдет в ближайшее время и будет работать по схеме звонков от "родственников", например, пожилым людям, предупредил эксперт Роскачества. Тем самым не за горами момент, когда обманы со звонками от силовых ведомств и сотрудников банка будут полностью осуществляться программными алгоритмами на базе нейросетей. Как распознать дипфейк: Неестественная мимика — движения губ не попадают в такт с произносимыми словами, одно и то же выражение глаз, не видно смены эмоций. Низкое разрешение, пикселизация или нечеткость изображения, особенно в областях с активной мимикой — брови, уголки рта. Звук опережает картинку или не успевает за движениями персонажа. Распознавать подделки помогают и сами нейросети. Технологии создания и обнаружения дипфейков будут усиленно развиваться в будущем.
Консультант по информационной безопасности компании R-Vision Карэн Багдасарян дополняет, что в генерации голосовых дипфейков большую роль играет искусственный интеллект ИИ. При помощи нейросетей преступники могут воспроизвести интонацию, ритм и особенности речи конкретного человека, чтобы создать убедительное аудиосообщение. Это, конечно, люди старшего возраста. В то же время рискуют и родственники публичных людей, поскольку образцы голосов звезд легче найти в открытом доступе, — поясняет Александр Самсонов. Например, у родителей действительно может быть непутевый сын, который попадает в плохие истории. За счет стресса и доверчивости различить тонкости в голосе непросто, — поясняет специалист.
За борьбу с подделками решили взяться на государственном уровне Как отмечает Александров, сегодня круг потенциально успешных атак мошенников расширяется за счет того, что голос, имитированный ИИ, действительно стал похож на оригинал, и в зоне риска находятся люди, которые знают о подобных мошеннических атаках, но не в курсе применения современных технологий в сфере копирования голоса. Как не стать жертвой мошенника Для того чтобы создать голосовой дипфейк, имитирующий речь конкретного человека, злоумышленникам нужны образцы его голоса. Как говорит главный эксперт «Лаборатории Касперского» Сергей Голованов, при наличии нескольких образцов голоса мошенники могут с помощью нейросети создать аудиозапись с необходимым им содержанием. Однако в режиме реального времени создавать подобную запись не получится, — рассказывает эксперт. Образцы голоса потенциальной жертвы для создания дипфейков злоумышленники могут добывать разными путями.
Почему еще нужно быть начеку
- Мошенники подделывают голоса и крадут деньги
- Телефонные мошенники стали подделывать номера и голоса родственников - Бинкор
- Цифровая гигиена
- ЦБ: мошенники научились имитировать гoлоса родных потенциальной жертвы - Российская газета
- Мошенники активно выманивают образцы голоса россиян
- Курсы валют
Эксперт по кибербезопасности Ефимов предупредил о возможности создать фейковую аудиозапись
Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян. Уже известны случаи, когда подделывали голос человека и даже внешность. Подделывать голоса мошенники могли задолго до появления нейросети. Мошенники научились использовать современные технологии DeepFake для имитации голоса, сообщили в Роскачестве.
Мошенники могут подделать чужой голос, чтобы украсть деньги
«Я сам сталкивался с тем, что мне звонили мошенники и включали синтез голоса моего ребёнка. Мошенники начали чаще подделывать голоса родных и знакомых тех, кому они звонят, сообщили в Центробанке. Из-за комплексного и детализированного подхода мошенники сейчас могут подделать буквально все. Нередко аферисты подделывают голос родственников или знакомых потенциальной жертвы. Мошенники начали подделывать голоса: выяснили, смогут ли они оформить кредит в банке. Мошенники могут попытаться с полученной записью голоса обратиться в банк, чтобы от имени другого клиента совершить различные финансовые операции.
Мошенники с помощью искусственного интеллекта запугивают родителей голосами родных детей
Мошенники всё активнее используют нейросети, чтобы подделывать голоса или лица знакомых доверчивых граждан и своровать их кровные. Мошенники стали активно использовать технологию синтеза голоса для шантажа жертв и угрожают «сливом» поддельных аудиозаписей в СМИ и правоохранительные. Эксперты по кибербезопасности отмечают рост использования аудиодипфейков для мошеннических звонков в мессенджерах — подделку голоса руководителя компании для авторизации перевода средств.