5 мая, 06:28

Эксперты прогнозируют рост дипфейк-атак в России до конца года

Каждый второй россиянин столкнется с дипфейк-атакой до конца года, рассказали "Известиям" эксперты по искусственному интеллекту.   Сегодня речь идет о голосовых сообщениях и видеокружках, но в 2026 году эксперты прогнозируют уже рост дипфейк-звонков, когда с человеком будет разговаривать злоумышленник голосом знакомого.  Если в 2024–2025 годах основное распространение получили фейковые видео в мессенджерах  видеокружки  и голосовые сообщения, то уже через год мошенники смогут в реальном времени имитировать разговор с "дочкой, попавшей в беду", "другом, просящим деньги" или "коллегой, срочно требующим перевести средства", рассказали "Известиям" в пресс-службе MTS AI.       Отправить новость
IZ.RU
IZ.RU
Каждый второй россиянин столкнется с дипфейк-атакой до конца года, рассказали "Известиям" эксперты по искусственному интеллекту. Сегодня речь идет о голосовых сообщениях и видеокружках, но в 2026 году эксперты прогнозируют уже рост дипфейк-звонков, когда с человеком будет разговаривать злоумышленник голосом знакомого. Если в 2024–2025 годах основное распространение получили фейковые видео в мессенджерах видеокружки и голосовые сообщения, то уже через год мошенники смогут в реальном времени имитировать разговор с "дочкой, попавшей в беду", "другом, просящим деньги" или "коллегой, срочно требующим перевести средства", рассказали "Известиям" в пресс-службе MTS AI. Отправить новость
«Я попала в беду!»: каждый второй россиянин может столкнуться с дипфейк-звонками до конца этого года  Если раньше мошенники использовали нейросети, чтобы подделать голос знакомого в переписке, то уже в следующем году, рассказали эксперты, они смогут звонить и общаться с жертвой голосом близкого человека, который якобы попал в беду, или коллегой, которому срочно нужны деньги.  «Буквально пару лет назад с подобными атаками сталкивались лишь 10% пользователей Сети, но уже к концу этого года каждый второй россиянин может стать жертвой дипфейк-атак»,  — сообщили в пресс-службе MTS AI.  Сейчас мошенники активно подделывают «кружки» в мессенджерах и голосовые сообщения. Проблема в том, что нельзя проверить, где и как они были сделаны и помещены в переписку.     GigaChat    Подписаться   Прислать новость
SiTV | Новости Сургута и Югры
SiTV | Новости Сургута и Югры
«Я попала в беду!»: каждый второй россиянин может столкнуться с дипфейк-звонками до конца этого года Если раньше мошенники использовали нейросети, чтобы подделать голос знакомого в переписке, то уже в следующем году, рассказали эксперты, они смогут звонить и общаться с жертвой голосом близкого человека, который якобы попал в беду, или коллегой, которому срочно нужны деньги. «Буквально пару лет назад с подобными атаками сталкивались лишь 10% пользователей Сети, но уже к концу этого года каждый второй россиянин может стать жертвой дипфейк-атак», — сообщили в пресс-службе MTS AI. Сейчас мошенники активно подделывают «кружки» в мессенджерах и голосовые сообщения. Проблема в том, что нельзя проверить, где и как они были сделаны и помещены в переписку. GigaChat Подписаться Прислать новость
БанкБлог
БанкБлог
Каждый второй россиянин столкнется с дипфейк-атакой до конца года, рассказали «Известиям» эксперты по искусственному интеллекту. Речь идет про голосовые сообщения и видеокружки, но в 2026 году эксперты прогнозируют уже рост дипфейк-звонков, когда злоумышленник будет разговаривать с человеком голосом его знакомого. Раньше на создание таких убедительных подделок требовалось много времени и серьезных навыков, но сегодня эта технология рискует стать массовой благодаря развитию искусственного интеллекта.
Loading indicator gif
Твой личный ИИ — отвечает, объясняет, помогает
1chatgpt.ru
1chatgpt.ru
Твой личный ИИ — отвечает, объясняет, помогает
Новости Москвы
Новости Москвы
Каждый второй россиянин столкнётся с дипфейк-атакой до конца года, — эксперты по ИИ Речь о голосовых сообщениях и видеокружках. В 2026 же будет рост дипфейк-звонков, когда с человеком будет разговаривать злоумышленник голосом знакомого.
Банковская Правда
Банковская Правда
Эксперты прогнозируют, что до конца 2025 года каждый второй россиянин столкнется с дипфейк-атакой, причем если сейчас мошенники чаще используют поддельные голосовые сообщения и видеокружки, то к 2026 году ожидается рост дипфейк-звонков с имитацией голосов знакомых. Технологии создания фейков стали массово доступными: если раньше для этого требовались время и навыки, то теперь ИИ позволяет генерировать их быстро и почти без следов редактирования, что делает такие атаки все сложнее для распознавания. Особую опасность представляют мессенджеры, где невозможно проверить источник голосовых сообщений и видео, что активно используют злоумышленники.
Москва
Москва
50% россиян столкнётся с дипфейк-атакой до конца года, — эксперты. Речь идёт о голосовых сообщениях и видеокружках. В 2026 году ожидается всплеск дипфейк-звонков, когда мошенники будут общаться с людьми, имитируя голос их знакомых.
Черное золото
Черное золото
50% россиян столкнётся с дипфейк-атакой до конца года, — эксперты. Речь идёт о голосовых сообщениях и видеокружках. В 2026 году ожидается всплеск дипфейк-звонков, когда мошенники будут общаться с людьми, имитируя голос их знакомых. Черное золото
Банкста
Банкста
Из-за развития искусственного интеллекта каждый второй россиянин столкнется с дипфейк-атакой до конца года. Пока речь идет про голосовые сообщения и видеокружки, но в 2026 году эксперты прогнозируют уже рост дипфейк-звонков, когда мошенники смогут в реальном времени разговаривать с человеком голосом его знакомого. Причём, в отличие от ранних подделок, современные дипфейки всё сложнее распознать даже опытному пользователю.
Злой Банкстер
Злой Банкстер
С развитием технологий искусственного интеллекта до конца года половина россиян может стать жертвой дипфейк-атак. На данный момент такие атаки чаще всего связаны с голосовыми сообщениями и видеозаписями. Однако к 2026 году специалисты ожидают увеличение числа дипфейк-звонков, в ходе которых мошенники смогут говорить с человеком голосом его родственников или друзей в режиме реального времени. Современные дипфейки становятся всё труднее распознать, даже для опытных пользователей.
Экономика
Экономика
Эксперты в сфере кибернетики и искусственного интеллекта считают, что биометрия может быть «взломана» уже в ближайшие месяцы при помощи ИИ. При этом каждый второй россиянин столкнётся с дипфейк-атакой до конца года: ИИ открывает в 2025 году новые горизонты для мошенников. Согласно последним прогнозам аналитиков в сфере цифровой безопасности, к концу 2025 года более 50% россиян рискуют стать жертвами дипфейк-атак. Это следствие стремительного развития технологий искусственного интеллекта, особенно генеративных моделей, способных воспроизводить голос и внешность человека с поразительной точностью. Пока что атаки ограничиваются поддельными голосовыми сообщениями и видеокружками в мессенджерах, но уже в 2026 году эксперты ожидают рост количества так называемых "живых" дипфейк-звонков. В этих случаях мошенники смогут вести диалог в реальном времени, имитируя голос близкого человека. Главная опасность заключается в том, что современные дипфейки становятся всё более реалистичными — различить подделку становится трудно даже для опытных пользователей. Это открывает новые возможности для социальной инженерии: фальшивый голос может убедить человека перевести деньги, предоставить личную информацию или даже совершить действия против собственной воли. Экономические последствия уже ощущаются: компании вынуждены инвестировать миллионы рублей в кибербезопасность, включая биометрическую аутентификацию и системы распознавания фейков. Банковский сектор особенно уязвим — по данным Центробанка, ущерб от ИИ-мошенничества в 2024 году составил более 14 млрд рублей, и эта цифра продолжает расти. Правительство и частные организации начинают разрабатывать правовые и технические меры противодействия, включая обязательную маркировку ИИ-контента и уголовную ответственность за использование дипфейков с мошенническими целями. Однако технологии развиваются быстрее, чем успевает реагировать законодательство, что создаёт окно возможностей для киберпреступников. ℂ ℕ
Loading indicator gif