Мошенники научились подделывать голоса родных потенциальной жертвы. Кроме того, они создают адресные схемы, которые составлены по цифровому портрету человека, сообщили «РИА Новости» в Центробанке. Эксперты утверждают, чтобы подделать чужой голос нейросети необходим образец. Мошенники подделывают голоса, притворяясь вашими родственниками или знакомыми Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного. и аудиодипфейки.
Центробанк: мошенники стали чаще имитировать голоса родных и знакомых россиян
IT-эксперты рассказали, как мошенники подделывают голоса россиян. В России активизировались мошенники, подделывающие голоса близких и коллег своих потенциальных жертв. Мошенники подделывают голоса, притворяясь вашими родственниками или знакомыми Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного.
Даже начинающие мошенники могут быть опасны
- Компания потеряла $25,6 млн из-за обмана сотрудника по видеосвязи / Хабр
- Каждый четвертый похищенный мошенниками рубль оказался заемным
- Клон голоса
- Telegram: Contact @nastroenie_tvc
Мошенники научились подделывать аудио и видео с помощью ИИ - Москва 24
Полицейские показали, как мошенники подделывают свой голос | Мошенники также используют голосовой фишинг, они имитируют голос конкретного человека (родственника или коллеги). |
Мошенники придумали новую схему развода с подменой голоса. Будьте бдительны | Мошенничество Интернет-мошенники Телефонные мошенники Взлом Видео Вертикальное видео Telegram (ссылка). |
Мошенники могут подделать чужой голос, чтобы украсть деньги | Мошенники могут попытаться с полученной записью голоса обратиться в банк, чтобы от имени другого клиента совершить различные финансовые операции. |
Мошенники подделывают голоса с помощью нейросетей: как защитить свой голос и не стать их жертвой | Мошенники стали активно использовать технологию синтеза голоса для шантажа жертв и угрожают «сливом» поддельных аудиозаписей в СМИ и правоохранительные. |
Мошенники могут подделать чужой голос, чтобы украсть деньги | Мошенники стали активно использовать технологию синтеза голоса для шантажа жертв и угрожают «сливом» поддельных аудиозаписей в СМИ и правоохранительные. |
"Аудиодвойник" бизнесмена из Москвы обманом заполучил кассу его фитнес-клуба, пока он отдыхал
Но главное: голос нейросети звучит немного механически и безэмоционально; - Спросите у звонящего какой-то факт, который должен быть известен только вам и ему. Сергей Кузьменко, руководитель Центра цифровой экспертизы Роскачества: «Схемы мошенничества остаются неизменными, однако использование современных технологий во многом развязывает руки злоумышленникам, что позволяет им старые успешные схемы подавать под новым углом. В наше время каждый, у кого есть смартфон и любая сумма денег на счету, становится потенциальной жертвой аферистов. Важно провести беседу с близкими и установить некую кодовую фразу, чтобы быть уверенным, что входящие звонки не являются мошенническими. Основное правило — не паниковать и не торопиться. Не стоит вестись на манипуляции мошенников и отправлять деньги на незнакомый счет. Для начала свяжитесь со своими родственниками или знакомыми, чтобы проверить информацию о предполагаемой тревожной просьбе».
Эксперты Центра цифровой экспертизы Роскачества отмечают, что в скором времени на смену аудиозвонкам, сгенерированным нейросетью, придут видеозвонки DeepFake. Примеры подобных мошеннических схем уже существуют, но пока они не получили широкого распространения. Все потому, что технология DeepFake еще недостаточно совершенна, и даже простой интернет-пользователь легко отличит поддельное видео от настоящего. К тому же, киберэксперты не исключают, что в будущем записи разговоров с клиентами аферисты будут продавать. Так же, как сейчас они торгуют базами телефонных номеров.
Posted 31 мая 2023,, 12:01 Published 31 мая 2023,, 12:01 Modified 31 мая 2023,, 12:03 Updated 31 мая 2023,, 12:03 Подделали голос внучки. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч 31 мая 2023, 12:01 Полиция занимается расследованием уголовного дела. В Кизеле полиция возбудила уголовное дело в отношении 22-летнего жителя Очера.
Его подозревают в совершении мошенничества ч. В дежурную часть полиции Кизела обратилась 87-летняя местная жительница, которая рассказала, что ей на стационарный телефон позвонила неизвестная девушка.
Вот только мошенники часто берут жертв на испуг — имитируют ситуации, когда деньги нужны срочно. Запись голоса они могут получить даже у самого осторожного человека, просто позвонив по телефону с каким-нибудь опросом. Вполне возможно, совсем скоро голос робота в трубке, предупреждающий, что ваш разговор может быть записан, заставит быстро закончить беседу. Все зависит от уровня защищенности инфраструктуры конкретной компании. Которая занимается записью переговоров", — подчеркнул директор по информационной безопасности компании по защите веб-приложений Лев Палей. Специалисты не исключают: в будущем записи разговоров с клиентами аферисты будут продавать. Так же, как сейчас они торгуют базами телефонов.
И тогда дипфейки, основанные на подделке голоса, могут стать грозным оружием. Подпишитесь и получайте новости первыми Читайте также.
У технологии машинного обучения есть особенность: им на вход надо подавать голос совершенно различный, записанный в разных ситуациях, с разным качеством, для того чтобы синтезированный голос потом был действительно похож на настоящий.
И поэтому запись именно таким образом, возможно иногда даже и студийного качества, позволяет синтезировать мошенникам голос, похожий на настоящий. Тут использовать более сложные вещи с записью голоса не требуется, но поскольку в нашей стране достаточно активно внедряется Единая биометрическая система и на биометрию переходят многие коммерческие организации, как минимум финансовые, то мошенники просто готовятся к новому витку своей деятельности. Рассылки голосовых сообщений мошенники в России используют не очень часто, говорит директор технического департамента RTM Group, эксперт в области информационной безопасности и компьютерной криминалистики Федор Музалевский: — При записи телефонного разговора качество записи ограничено восемью килогерцами, что не всегда достаточно для корректного обучения тех же нейросетей. Помимо этого, длительность разговора будет заметно меньше, и она потребует вовлеченности злоумышленника, то есть будет отрывать его от производства.
Плюс у нас в стране достаточно скептическое отношение к голосовым сообщениям. У нас некоторое время назад, может быть, месяц, были случаи, когда в корпоративной рассылке использовались голосовые сообщения, но это очень редко встречается, поэтому эффективность практически нулевая. То есть у нас ни в корпоративной культуре, ни в обиходе голосовые сообщения никогда не были и в настоящий момент не являются руководством к действию. Есть ряд людей, кто обмениваются между собой голосовыми сообщениями, но подделать и отправителя, влиться в переписку практически нереально.
Поэтому основная защита от мошенников — это просто обычная бдительность и игнорирование голосовых сообщений от отправителей, которых вы не знаете.
«Совпадение полное»: мошенники подделывают голоса родных и близких
Posted 31 мая 2023,, 12:01 Published 31 мая 2023,, 12:01 Modified 31 мая 2023,, 12:03 Updated 31 мая 2023,, 12:03 Подделали голос внучки. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч 31 мая 2023, 12:01 Полиция занимается расследованием уголовного дела. В Кизеле полиция возбудила уголовное дело в отношении 22-летнего жителя Очера. Его подозревают в совершении мошенничества ч. В дежурную часть полиции Кизела обратилась 87-летняя местная жительница, которая рассказала, что ей на стационарный телефон позвонила неизвестная девушка.
Только совокупность корректных данных позволит открыть доступ к управлению счетом или другими услугами Шамиль МагомедовIT-эксперт «Кроме того, представители банковских структур не раз подчеркивали, что операторы, принимающие звонок, также снабжены подробными инструкциями и могут различить "красные флажки", сигнализирующие о возможных мошенниках», — отметил собеседник.
Цифровая гигиена При этом Магомедов напомнил, что забывать о простых правилах цифровой гигиены не стоит. Если вашего голоса нет в базах данных, и вы не дали согласие на доступ к своим данным с помощью биометрии, то и преступники не смогут "притвориться" вами», — сообщил эксперт. Во-вторых, следует внимательно относиться к тому, кто и с какого номера звонит. В этом вопросе лучше проявить осторожность и сбросить подозрительный звонок, особенно если он идет через мессенджер, связавшись с банком самостоятельно по официальному телефону, указанному на обороте банковской карты.
В ведомстве также посоветовали не переводить деньги пользователям из интернета. При возникновении сомнений лучше связаться с человеком, от имени которого ведется разговор. В январе стало известно , что вымогатели используют нейросети для подделки войсов в мессенджере Telegram.
Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков. При этом восстановить по таким данным фото или голос человека практически невозможно. Помните, что банки заинтересованы в конфиденциальности данных своих клиентов, ведь несанкционированные операции могут нанести удар по их репутации и привести к финансовым потерям.
Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного человека. Например, позвонивший вам в мессенджер ребенок, родственник или знакомый просит срочно перевести небольшую сумму денег. Причина может быть какая угодно — ребенку срочно нужно сделать подарок другу или учительнице, пожилому родственнику не хватает небольшой суммы на покупку лекарств в аптеке. Звонивший под разными предлогами уговаривает отправить деньги на чужую карту или перевести их по чужому номеру телефона. Мошенник легко оправдается, почему перевод нужно осуществить другому человеку — можно сказать, что это счет продавца, друга, который находится рядом или что телефон разрядился. Нередко злоумышленники звонят в ночное время, чтобы застать жертву врасплох. Обычно речь идет о небольшой сумме, поэтому вопросов у жертвы не возникает и, как следствие, деньги попадают в руки мошенников. Эксперты Центра цифровой экспертизы Роскачества подготовили 10 правил цифровой безопасности, которые помогут вам не попасться на новую мошенническую схему: не отвечайте на звонки с подозрительных номеров, чтобы не дать возможности украсть ваш голос. Можно воспользоваться услугой защиты от спама и мошенников от операторов мобильной связи; помните, подделку голоса можно отличить по чрезмерной обработке.
Следующий звонок от вашей семьи может оказаться мошенничеством с подменой голоса дипфейком
Ее продукты можно видеть в сети уже сейчас, часто в качестве пародий и розыгрышей. За рубежом злоумышленники опробовали дипфейки при устройстве на удаленную работу в сфере IT для получения доступа к базам данных. Однако созданные видеоклоны выдают свою искусственность темпом речи, асинхронностью и неестественными эмоциями. Сергей Кузьменко, руководитель направления информационной безопасности Центра цифровой экспертизы Роскачества: «Новые технологии используются не только передовыми IT-компаниями, но и вовсю группами мошенников. Волна дипфейков уже захлестнула Юго-Восточную Азию и Африку. До России она тоже непременно дойдет в ближайшее время и будет работать по схеме звонков якобы родственников, например, пожилым людям. Тем самым не за горами момент, когда обманы со звонками от силовых ведомств и сотрудников банка будут полностью осуществляться программными алгоритмами на базе нейросетей». Как распознать дипфейк Неестественная мимика — движения губ не попадают в такт с произносимыми словами, одно и то же выражение глаз, не видно смены эмоций. Низкое разрешение, пикселизация или нечеткость изображения, особенно в областях с активной мимикой — брови, уголки рта.
Преступники заставляют жертв думать, что они разговаривают с родственником, которому вдруг понадобились деньги, например, на возмещение ущерба в результате ДТП. Кузьменко посоветовал сразу перезвонить своим родным и знакомым, от которых и была получена просьба. Еще лучше придумать кодовое слово, для своих, чтобы можно было понять: звонят родные, а не мошенники. При помощи методики синтеза медиаконтента, основанной на искусственном интеллекте, удается наложить ненастоящие изображение или видео на реальные. Технология называется "дипфейк" от англ. За рубежом злоумышленники опробовали дипфейки при устройстве на удаленную работу в сфере IT для получения доступа к базам данных. Однако созданные видеоклоны выдают свою искусственность темпом речи, асинхронностью и неестественными эмоциями.
К тому же существует опасение, что мошенники запишут ваш голос и передадут в Единую биометрическую систему или биометрические системы банков. Однако, несмотря на возможность утечки биометрии из банковского хранилища, использовать ее для несанкционированной идентификации невозможно. Причина состоит в самом процессе идентификации. Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков. При этом восстановить по таким данным фото или голос человека практически невозможно. Помните, что банки заинтересованы в конфиденциальности данных своих клиентов, ведь несанкционированные операции могут нанести удар по их репутации и привести к финансовым потерям. Мошенники подделывают голоса, притворяясь вашими родственниками или знакомыми Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного человека. Например, позвонивший вам в мессенджер ребенок, родственник или знакомый просит срочно перевести небольшую сумму денег. Причина может быть какая угодно — ребенку срочно нужно сделать подарок другу или учительнице, пожилому родственнику не хватает небольшой суммы на покупку лекарств в аптеке. Звонивший под разными предлогами уговаривает отправить деньги на чужую карту или перевести их по чужому номеру телефона. Мошенник легко оправдается, почему перевод нужно осуществить другому человеку — можно сказать, что это счет продавца, друга, который находится рядом или что телефон разрядился. Нередко злоумышленники звонят в ночное время, чтобы застать жертву врасплох. Обычно речь идет о небольшой сумме, поэтому вопросов у жертвы не возникает и, как следствие, деньги попадают в руки мошенников.
При использовании базовых технологий такие подделки вряд ли будут идеальными, вместо этого предлагается версия голоса, которая может быть немного искажена. Однако, полагаясь на стрессовую ситуацию, мошенники надеются, что люди не заметят этого или сочтут, что звонящий находится в состоянии стресса. Как бороться с дипфейками По мере того как эти мошенничества становятся все более распространенными, возникает вопрос как о том, как лучше с ними бороться, так и о том, могут ли люди сделать что-то, чтобы меньше подвергаться их воздействию. Легко быть критичным, когда это происходит не с вами, но в реальной ситуации это трудно. Когда происходит странная ситуация, задайтесь вопросом, похоже ли это на вашего знакомого, могут ли они сами так говорить, или ситуация, которую они описывают, кажется вам маловероятной Существуют программы, с помощью которых можно распознать фальшивку, но у обычного человека вряд ли есть такая программа под рукой. Если вам позвонил близкий человек, которого вы не ждали, и у вас возникли подозрения, перезвоните ему или напишите сообщение, чтобы узнать, где он находится. Оцените реальность и действуйте дальше". Хотя можно попытаться удалить весь контент в Интернете, это очень сложная задача, требующая тщательной проверки как ваших социальных сетей, так и друзей и родственников. Кроме того, может быть больше контента с вашей работы или из социальных групп, где есть пригодные для использования кадры и аудиозаписи. Лучший вариант - просто быть объективным, учитывать вероятность подделки и с опаской относиться к звонкам и видео, которые кажутся неправдоподобными". Изменение мышления За последний год возможности искусственного интеллекта значительно расширились. В результате появилось много хорошего, но и столько же плохого.
Украденные голоса: мошенники осваивают новый способ обмана россиян
Мошенники используют записи телефонных звонков, в том числе разговоров с роботами, для подделки голоса в мошеннических целях. Мошенники вышли на новый уровень: они подделывают не только номера телефонов,но даже голоса звонящих! Мошенники начали подделывать голоса с помощью нейросети. Александра показывает переписку – от ее имени мошенники отправили знакомым десятки сообщений. Подделывать голоса мошенники могли задолго до появления нейросети.
Информационная безопасность операционных технологий
Жители Волгограда привыкли слышать подобные вещи по телефону от мошенников, которые пытаются имитировать голос родных и знакомых. Но злоумышленникам больше не нужно напрягать свои связки — они научились действовать убедительнее: подделывать голос и даже изображение любого человека с помощью современных технологий. Теперь им под силу присылать аудиосообщения от имени наших близких с их голосами, а также создавать видеосообщения с их сгенерированными лицами, чтобы заработать на человеческой невнимательности и доверчивости. Разбираемся, как распознать дипфейк и не стать жертвой мошенника в попытке помочь родному человеку. Накатанные схемы уже не в моде, но работают По данным Центрального Банка РФ, в 2023 году злоумышленникам удалось украсть у россиян 15,8 миллиарда рублей. И несмотря на давно известные ухищрения и методы мошенников, самые наивные из граждан продолжают попадаться на крючок. Так, пенсионерка из Тюмени продала квартиру и отдала 12 миллионов рублей телефонным аферистам , убедившим ее перевести свои сбережения из якобы небезопасного банка на новый счет. Позднее, прямо на глаза у журналистов пожилая женщина решила отправить неизвестным еще одну крупную сумму денег. Мошенники зарабатывают миллиарды на доверчивых людях Источник: Полина Авдошина В свою очередь, волгоградец стал жертвой фейковой экскортницы и перевел злоумышленнику с женским голосом 97 000 рублей. Мошенником оказался житель Пензенской области, продающий несуществующие эротические услуги, имитируя голос проститутки и выбивающий с «клиентов» дополнительные средства. На смену таким незатейливым, но эффективным схемам обмана, приходят современные технологии, с возможностями которых знаком далеко не каждый простой человек.
Зато злоумышленники уже успели изучить и опробовать для совершения преступлений такие новейшие разработки, как нейросети. Даже начинающие мошенники могут быть опасны Нейросети могут облегчить работу специалистам практически любой сферы, а значит, и автоматизировать часть действий киберпреступников. Растущий интерес среди злоумышленников к широким возможностям нейросетей выявили и эксперты по информационной безопасности. Аналитик «Лаборатории Касперского» Алиса Кулишенко рассказала, чем чат-боты могут быть полезны для мошенников. А злоумышленники, чтобы избежать их, формируют специальные запросы — джилбрейки. Много теневых площадок даркнета существуют в формате форумов, — поделилась Алиса Кулишенко. Раньше была нужна коммуникация между человеком и мошенником, но сейчас часть запросов может быть получена автоматически. Даже начинающие злоумышленники могут представлять угрозу за счет получения компетенции от языковых моделей. Специалисты по кибербезопасности предупреждают — нейросети уже используют для обмана пользователей Источник: Полина Авдошина Искусственный интеллект дает неограниченные возможности злоумышленникам создавать новые способы наживы над простым интернет-пользователем. И аферисты по максимуму экспериментируют с технологическими разработками.
Используются они и для создания вредоносных ПО, — утверждает эксперт в области интернет-безопасности. Каждый месяц появляются новые и становятся всё более распространены и позиционируются как аналоги ChatGPT, но сразу со снятыми ограничениями.
Возьмите себе на заметку, что телефонные мошенники в 2024 году начали подменять даже входящие номера. Известны случаи, когда аферисты звонят с номера банка, хотя на самом деле это всего лишь умелая фальсификация. По этой логике преступники могут звонить и с «номера» того человека, которым они представляются. Итак, что делать? Есть три способа, как раскусить этот вид мошенничества и не стать жертвой телефонных мошенников. Проверочный вопрос. Какой бы убедительной ни казалась речь близкого человека особенно если он звонит не со своего номера , задайте ему такой вопрос, ответ на который знает только он: например, кем работала твоя бабушка, где находится наша дача, как зовут твоего домашнего питомца и т. Кодовое слово.
Договоритесь с семьей и друзьями, что в случае экстремальной ситуации вы всегда будете использовать кодовое слово. Это позволит моментально раскрыть любую телефонную аферу с поддельным голосом. Сбросить и перезвонить.
В ведомстве также посоветовали не переводить деньги пользователям из интернета. При возникновении сомнений лучше связаться с человеком, от имени которого ведется разговор. В январе стало известно , что вымогатели используют нейросети для подделки войсов в мессенджере Telegram.
Греф рассказал о мошенниках, подделывающих голос и изображение клиентов банков 27 января 202114:26 Редакция НСН Поделиться Глава Сбербанка Герман Греф сообщил о телефонных мошенниках, которые совершают атаки на клиентов банков с помощью подделки голоса. По его словам, злоумышленники используют технологии искусственного интеллекта, так называемой технологии дипфейк, когда могут быть смоделированы изображение и голос человека, передает РИА Новости.
Как работает новая схема мошенничества с подделкой голоса
О том, что мошенники подделывают голос «умного» помощника «Алиса» для того, чтобы обзванивать россиян и вводить их в заблуждение, сообщили в «Яндексе». Телефонные мошенники научились подделывать не только номера, но и голоса. Мошенники научились подделывать человеческий голос для более эффективного вымогательства. «Атаковали даже мэра Марченко»: мошенники подделывают голоса и лица жителей Волгограда с помощью нейросетей. Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян. С этой технологией мошенники подделывают голоса и изображения реальных людей, после чего звонят их друзьям, коллегам и подчиненным.
Полицейские показали, как мошенники подделывают свой голос
Голос в трубке заставил московского врача перевести мошенникам 3 млн рублей | злоумышленники подделывают голос с помощью технологии дипфейка и одновременно подменяют номер. |
Эксперт по кибербезопасности Ефимов предупредил о возможности создать фейковую аудиозапись | Эксперты утверждают, чтобы подделать чужой голос нейросети необходим образец. |
Мошенники с помощью искусственного интеллекта запугивают родителей голосами родных детей | Из-за комплексного и детализированного подхода мошенники сейчас могут подделать буквально все. |
Могут ли мошенники подделать голос и украсть деньги со счета? | Эксперты объясняют от Роскачества | Мошенники научились использовать современные технологии DeepFake для имитации голоса, сообщили в Роскачестве. |
Мошенники активно выманивают образцы голоса россиян
Мошенник подделал голос друга и выманил 50 000 ₽. Проверить подлинность подделанного голоса или видео можно лишь технически, предупреждает Семенычев. Мошенники не подделывали ее голос, но использовали продуманную со всех сторон схему.
Курсы валют
- Мошенники могут подделать чужой голос, чтобы украсть деньги
- Мошенники подделали голос гендиректора фитнес-клуба в Москве и украли выручку
- Мошенники активно выманивают образцы голоса россиян
- ЦБ: мошенники стали обманывать россиян, подделывая голоса их родных | Аргументы и Факты
- Мошенники могут подделать чужой голос, чтобы украсть деньги
Пенсия.PRO
Да, мама, насмерть", - рассказала потерпевшая. Разумеется, сыном представился один из мошенников. Затем трубку взял уже другой, якобы сотрудник полиции и потребовал деньги для решения проблемы. Попросили сразу полмиллиона. Но у женщины такой суммы не оказалось, согласились на 55-ть. При этом позвонить сыну самостоятельно ошарашенная мать не могла: преступники просили ее все время держать телефон в режиме разговора.
Получив доступ к переписке, злоумышленники извлекают голосовые сообщения и загружают их в специальную систему, функционирующую на базе ИИ. Эта система затем анализирует голосовые образцы и учится имитировать особенности речи человека. С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет. Однако ведущие российские банки не используют систему управления счетом с помощью голоса. Например, в СберБанке в качестве биометрического идентификатора для проведения платежных операций используется не голос, а лицо человека. Банки сохраняют ваш голос в биометрической базе только для того, чтобы автоматически распознавать его при звонках в техническую службу поддержки банка. К тому же существует опасение, что мошенники запишут ваш голос и передадут в Единую биометрическую систему или биометрические системы банков. Однако, несмотря на возможность утечки биометрии из банковского хранилища, использовать ее для несанкционированной идентификации невозможно. Причина состоит в самом процессе идентификации. Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков. При этом восстановить по таким данным фото или голос человека практически невозможно. Помните, что банки заинтересованы в конфиденциальности данных своих клиентов, ведь несанкционированные операции могут нанести удар по их репутации и привести к финансовым потерям.
Позднее, прямо на глаза у журналистов пожилая женщина решила отправить неизвестным еще одну крупную сумму денег. Мошенники зарабатывают миллиарды на доверчивых людях Источник: Полина Авдошина В свою очередь, волгоградец стал жертвой фейковой экскортницы и перевел злоумышленнику с женским голосом 97 000 рублей. Мошенником оказался житель Пензенской области, продающий несуществующие эротические услуги, имитируя голос проститутки и выбивающий с «клиентов» дополнительные средства. На смену таким незатейливым, но эффективным схемам обмана, приходят современные технологии, с возможностями которых знаком далеко не каждый простой человек. Зато злоумышленники уже успели изучить и опробовать для совершения преступлений такие новейшие разработки, как нейросети. Даже начинающие мошенники могут быть опасны Нейросети могут облегчить работу специалистам практически любой сферы, а значит, и автоматизировать часть действий киберпреступников. Растущий интерес среди злоумышленников к широким возможностям нейросетей выявили и эксперты по информационной безопасности. Аналитик «Лаборатории Касперского» Алиса Кулишенко рассказала, чем чат-боты могут быть полезны для мошенников. А злоумышленники, чтобы избежать их, формируют специальные запросы — джилбрейки. Много теневых площадок даркнета существуют в формате форумов, — поделилась Алиса Кулишенко. Раньше была нужна коммуникация между человеком и мошенником, но сейчас часть запросов может быть получена автоматически. Даже начинающие злоумышленники могут представлять угрозу за счет получения компетенции от языковых моделей. Специалисты по кибербезопасности предупреждают — нейросети уже используют для обмана пользователей Источник: Полина Авдошина Искусственный интеллект дает неограниченные возможности злоумышленникам создавать новые способы наживы над простым интернет-пользователем. И аферисты по максимуму экспериментируют с технологическими разработками. Используются они и для создания вредоносных ПО, — утверждает эксперт в области интернет-безопасности. Каждый месяц появляются новые и становятся всё более распространены и позиционируются как аналоги ChatGPT, но сразу со снятыми ограничениями. Угроза чат-ботов заключается в их способности генерирования фишинговых сообщений и разработке вредоносных ПО и задач. Какие еще инструменты нейросетей можно использовать для зловредных целей, подробнее рассказал руководитель группы исследований и разработки технологий машинного обучения «Лаборатории Касперского» Владислав Тушканов. Например, для завлечения человека нажать на какую-то ссылку, чтобы тот скачал вредоносный файл и так далее. Под удар попал даже мэр Марченко Искусство создания дипфейковых видео изучили не только мошенники, но и авторы волгоградских телеграм-каналов. Не так давно широкое распространение в сети получили несколько сгенерированных видео с использованием лица мэра Волгограда Владимира Марченко, в которых он предстает в образах героев известных фильмов и рэперов. В следующем — играет роль Уильяма Уоллеса в известном фильме «Храброе сердце». Накануне в канале показали Владимира Марченко в роли крестного отца.
Теперь полиция намерена расширить свою службу оповещений, включив в неё систему быстрых платежей FPS , чтобы предупреждать пользователей о том, что они переводят деньги на мошеннические счета. В 2020 году мошенники клонировали голос директора банка в ОАЭ и использовали его для ограбления финучреждения. Между тем эксперты по кибербезопасности F. С помощью ИИ хакеры подделывают голоса руководителей компании для авторизации перевода средств. Таким атакам наиболее подвержен малый и средний бизнес, где многие процессы завязаны именно на владельца.
Мошенники начали подделывать голоса: Луки.ру выяснили, смогут ли они оформить кредит в банке
В 2020 году мошенники клонировали голос директора банка в ОАЭ и использовали его для ограбления финучреждения. 15 миллионов звонков в день совершали телефонные мошенники в России в апреле, почти в два раза больше чем в прошлом году. «Таймырский телеграф» – Мошенники продолжают совершенствоваться: теперь они стали использовать специальную программу, с помощью которой подделывают голоса. Мошенники не подделывали ее голос, но использовали продуманную со всех сторон схему.