24 декабря, 18:29

Мошенники используют нейросети для обмана россиян в преддверии Нового года

Под Новый год активизировались мошенники - используют нейросети Мошенники используют нейросети для обмана россиян    Читать подробнее на сайте...
PrimaMedia. Новости России
PrimaMedia. Новости России
Под Новый год активизировались мошенники - используют нейросети Мошенники используют нейросети для обмана россиян Читать подробнее на сайте...
Video is not supported
Сталинградский ветеран. Служим России
Солистка Волгоградской филармонии, лауреат международных и национальных конкурсов Наталья Долгалева предупреждает о мошенниках, которые могут использовать нейросети и генераторы голоса. ‼ Помните: Если вам поступил звонок с неизвестного номера, представляются родственником и просят перевести деньги - прервите разговор и перепроверьте информацию. Скорее всего Вам звонят мошенники. Будьте бдительны! Не расставайтесь со своими деньгами!
Мошенники используют нейросети в новогодние праздники.  Директор по продукту Родион Кадыров FABULA AI рассказал «Газете.Ru», что Мошенники активно применяют приемы социальной инженерии:    «С развитием ИИ технологии совершенствуются, и мошенники осознают их потенциал, применяя нейросети на профессиональном уровне: используют цифровых двойников, передовые визуальные и голосовые генеративные сети, технологии замены лиц  face swap  и накладывают нужные звуковые фрагменты на аудиосообщения, такие, как голосовые сообщения в Telegram».  Эксперт рассказал, как определить, что на видео не тот человек, за которого себя выдает:    При движении головы маска с лицом может «слетать».   Голос, созданный ИИ часто монотонный и лишенный естественных интонаций.    ИИ не станет ярко реагировать на провокационные вопросы.   Подписывайтесь на «Газету.Ru»
Газета.Ru
Газета.Ru
Мошенники используют нейросети в новогодние праздники. Директор по продукту Родион Кадыров FABULA AI рассказал «Газете.Ru», что Мошенники активно применяют приемы социальной инженерии: «С развитием ИИ технологии совершенствуются, и мошенники осознают их потенциал, применяя нейросети на профессиональном уровне: используют цифровых двойников, передовые визуальные и голосовые генеративные сети, технологии замены лиц face swap и накладывают нужные звуковые фрагменты на аудиосообщения, такие, как голосовые сообщения в Telegram». Эксперт рассказал, как определить, что на видео не тот человек, за которого себя выдает: При движении головы маска с лицом может «слетать». Голос, созданный ИИ часто монотонный и лишенный естественных интонаций. ИИ не станет ярко реагировать на провокационные вопросы. Подписывайтесь на «Газету.Ru»
В России запустили в продажу новогодний подарок, который опережает время
₿tc-card.com
₿tc-card.com
В России запустили в продажу новогодний подарок, который опережает время
Адвокат Постанюк предупредил москвичей о новогодних обманах нейтросетями  Перед Новым годом в российской столице и других регионах страны активизировались мошенники. Все чаще они используют для обмана граждан нейросети, рассказал адвокат Владимир Постанюк.  По словам эксперта, нейросети позволяют сделать практически неотличимый «слепок» голоса человека. Если пользователь мессенджера или социальной сети записал кому-либо голосовое сообщение, и оно попало к мошенникам, то они, используя нейросеть, сделают копию голоса. Затем они могут позвонить с использованием нейросети родным или друзьям этого человека и попросить у них денежные средства, поздравив с Новым годом, попросить деньги на подарок и так далее.  Аналогичная ситуация, обращает внимание адвокат, и с видеосообщениями. Располагая кадрами с человеком, с помощью нейросети можно отправить и видео от его имени.  Активное освоение мошенниками кибертехнологий требует от граждан более внимательного отношения к своим аккаунтам. Если звонят с помощью нейросети, проверить это можно, задавая наводящие вопросы и выводя собеседника на эмоции. В случае, если обман все же произошел, надо немедленно обращаться в полицию, отметил адвокат Постанюк.
Вести Московского региона
Вести Московского региона
Адвокат Постанюк предупредил москвичей о новогодних обманах нейтросетями Перед Новым годом в российской столице и других регионах страны активизировались мошенники. Все чаще они используют для обмана граждан нейросети, рассказал адвокат Владимир Постанюк. По словам эксперта, нейросети позволяют сделать практически неотличимый «слепок» голоса человека. Если пользователь мессенджера или социальной сети записал кому-либо голосовое сообщение, и оно попало к мошенникам, то они, используя нейросеть, сделают копию голоса. Затем они могут позвонить с использованием нейросети родным или друзьям этого человека и попросить у них денежные средства, поздравив с Новым годом, попросить деньги на подарок и так далее. Аналогичная ситуация, обращает внимание адвокат, и с видеосообщениями. Располагая кадрами с человеком, с помощью нейросети можно отправить и видео от его имени. Активное освоение мошенниками кибертехнологий требует от граждан более внимательного отношения к своим аккаунтам. Если звонят с помощью нейросети, проверить это можно, задавая наводящие вопросы и выводя собеседника на эмоции. В случае, если обман все же произошел, надо немедленно обращаться в полицию, отметил адвокат Постанюк.
Fake Control
Fake Control
Мошенники в преддверии новогодних праздников активно используют нейросети В России мошенники под Новый год активизируются, используя передовые технологии нейросетей, рассказал эксперт Родион Кадыров. По его словам, благодаря нейросетям они создают убедительные видеоизображения человека, а затем отправляют этот созданный образ его друзьям или родственникам через мессенджеры и соцсети. «Если, например, аккаунт взломали, или ваш родственник переслал кому-то голосовые сообщения, то по отрезку в 15 секунд можно сделать "слепок" голоса отправителя. Также мошенники могут общаться с вами или отправлять голосовые сообщения, схожие с голосом ваших знакомых и близких. Даже если вы слышите в голосовом знакомый голос, не теряйте бдительность», — отметил он. «Если вы столкнулись с мошенником, который отправляет видеокружок, обратите внимание на движения его головы. При резких поворотах лица может возникнуть эффект "слетания" технологии Face Swap, что может свидетельствовать о подделке. […] Обратите внимание на голос, созданный с помощью ИИ — он часто будет монотонным и лишенным естественных интонаций. Также попробуйте вывести собеседника на эмоции, задавая вопросы, которые могут вызвать реакцию. Настоящие люди обычно реагируют эмоционально, в то время как ИИ может не показать такой же уровень вовлеченности», — рассказал Кадыров.