

IZ.RU
Каждый второй россиянин столкнется с дипфейк-атакой до конца года, рассказали "Известиям" эксперты по искусственному интеллекту. Сегодня речь идет о голосовых сообщениях и видеокружках, но в 2026 году эксперты прогнозируют уже рост дипфейк-звонков, когда с человеком будет разговаривать злоумышленник голосом знакомого. Если в 2024–2025 годах основное распространение получили фейковые видео в мессенджерах видеокружки и голосовые сообщения, то уже через год мошенники смогут в реальном времени имитировать разговор с "дочкой, попавшей в беду", "другом, просящим деньги" или "коллегой, срочно требующим перевести средства", рассказали "Известиям" в пресс-службе MTS AI. Отправить новость
Происшествия15 дней назад


SiTV | Новости Сургута и Югры
«Я попала в беду!»: каждый второй россиянин может столкнуться с дипфейк-звонками до конца этого года Если раньше мошенники использовали нейросети, чтобы подделать голос знакомого в переписке, то уже в следующем году, рассказали эксперты, они смогут звонить и общаться с жертвой голосом близкого человека, который якобы попал в беду, или коллегой, которому срочно нужны деньги. «Буквально пару лет назад с подобными атаками сталкивались лишь 10% пользователей Сети, но уже к концу этого года каждый второй россиянин может стать жертвой дипфейк-атак», — сообщили в пресс-службе MTS AI. Сейчас мошенники активно подделывают «кружки» в мессенджерах и голосовые сообщения. Проблема в том, что нельзя проверить, где и как они были сделаны и помещены в переписку. GigaChat Подписаться Прислать новость
Происшествия15 дней назад

БанкБлог
Каждый второй россиянин столкнется с дипфейк-атакой до конца года, рассказали «Известиям» эксперты по искусственному интеллекту. Речь идет про голосовые сообщения и видеокружки, но в 2026 году эксперты прогнозируют уже рост дипфейк-звонков, когда злоумышленник будет разговаривать с человеком голосом его знакомого. Раньше на создание таких убедительных подделок требовалось много времени и серьезных навыков, но сегодня эта технология рискует стать массовой благодаря развитию искусственного интеллекта.
Происшествия15 дней назад



Новости Москвы
Каждый второй россиянин столкнётся с дипфейк-атакой до конца года, — эксперты по ИИ Речь о голосовых сообщениях и видеокружках. В 2026 же будет рост дипфейк-звонков, когда с человеком будет разговаривать злоумышленник голосом знакомого.
Происшествия15 дней назад

Банковская Правда
Эксперты прогнозируют, что до конца 2025 года каждый второй россиянин столкнется с дипфейк-атакой, причем если сейчас мошенники чаще используют поддельные голосовые сообщения и видеокружки, то к 2026 году ожидается рост дипфейк-звонков с имитацией голосов знакомых. Технологии создания фейков стали массово доступными: если раньше для этого требовались время и навыки, то теперь ИИ позволяет генерировать их быстро и почти без следов редактирования, что делает такие атаки все сложнее для распознавания. Особую опасность представляют мессенджеры, где невозможно проверить источник голосовых сообщений и видео, что активно используют злоумышленники.
Происшествия15 дней назад

Москва
50% россиян столкнётся с дипфейк-атакой до конца года, — эксперты. Речь идёт о голосовых сообщениях и видеокружках. В 2026 году ожидается всплеск дипфейк-звонков, когда мошенники будут общаться с людьми, имитируя голос их знакомых.
Происшествия15 дней назад

Черное золото
50% россиян столкнётся с дипфейк-атакой до конца года, — эксперты. Речь идёт о голосовых сообщениях и видеокружках. В 2026 году ожидается всплеск дипфейк-звонков, когда мошенники будут общаться с людьми, имитируя голос их знакомых. Черное золото
Происшествия15 дней назад

Банкста
Из-за развития искусственного интеллекта каждый второй россиянин столкнется с дипфейк-атакой до конца года. Пока речь идет про голосовые сообщения и видеокружки, но в 2026 году эксперты прогнозируют уже рост дипфейк-звонков, когда мошенники смогут в реальном времени разговаривать с человеком голосом его знакомого. Причём, в отличие от ранних подделок, современные дипфейки всё сложнее распознать даже опытному пользователю.
Происшествия15 дней назад

Злой Банкстер
С развитием технологий искусственного интеллекта до конца года половина россиян может стать жертвой дипфейк-атак. На данный момент такие атаки чаще всего связаны с голосовыми сообщениями и видеозаписями. Однако к 2026 году специалисты ожидают увеличение числа дипфейк-звонков, в ходе которых мошенники смогут говорить с человеком голосом его родственников или друзей в режиме реального времени. Современные дипфейки становятся всё труднее распознать, даже для опытных пользователей.
Происшествия15 дней назад

Экономика
Эксперты в сфере кибернетики и искусственного интеллекта считают, что биометрия может быть «взломана» уже в ближайшие месяцы при помощи ИИ. При этом каждый второй россиянин столкнётся с дипфейк-атакой до конца года: ИИ открывает в 2025 году новые горизонты для мошенников. Согласно последним прогнозам аналитиков в сфере цифровой безопасности, к концу 2025 года более 50% россиян рискуют стать жертвами дипфейк-атак. Это следствие стремительного развития технологий искусственного интеллекта, особенно генеративных моделей, способных воспроизводить голос и внешность человека с поразительной точностью. Пока что атаки ограничиваются поддельными голосовыми сообщениями и видеокружками в мессенджерах, но уже в 2026 году эксперты ожидают рост количества так называемых "живых" дипфейк-звонков. В этих случаях мошенники смогут вести диалог в реальном времени, имитируя голос близкого человека. Главная опасность заключается в том, что современные дипфейки становятся всё более реалистичными — различить подделку становится трудно даже для опытных пользователей. Это открывает новые возможности для социальной инженерии: фальшивый голос может убедить человека перевести деньги, предоставить личную информацию или даже совершить действия против собственной воли. Экономические последствия уже ощущаются: компании вынуждены инвестировать миллионы рублей в кибербезопасность, включая биометрическую аутентификацию и системы распознавания фейков. Банковский сектор особенно уязвим — по данным Центробанка, ущерб от ИИ-мошенничества в 2024 году составил более 14 млрд рублей, и эта цифра продолжает расти. Правительство и частные организации начинают разрабатывать правовые и технические меры противодействия, включая обязательную маркировку ИИ-контента и уголовную ответственность за использование дипфейков с мошенническими целями. Однако технологии развиваются быстрее, чем успевает реагировать законодательство, что создаёт окно возможностей для киберпреступников. ℂ ℕ
Происшествия15 дней назад

Похожие новости



+1



+4



+4



+10



+1



+3

Задержаны трое подозреваемых в содействии телефонным мошенникам в России
Происшествия
1 день назад




Мошенники используют дипфейки для обмана мужчин в соцсетях
Происшествия
1 день назад




Россияне предупреждены о скрытом обмане в салонах сотовой связи
Происшествия
1 день назад




Мошенничество с 'безопасными счетами' затрагивает пенсионеров в Благовещенске и туристов в Пятигорске
Происшествия
23 часа назад




В России планируют подготовить 250 тысяч ИТ-специалистов до 2030 года
Общество
17 часов назад




Рост кибератак в Европе и адаптация бизнеса к новым угрозам
Экономика
3 часа назад


