13 сентября, 09:51
Российские ученые разработали систему для выявления голосовых дипфейков


Цифра63
В России создали систему для выявления голосовых дипфейков Специалисты из Института искусственного интеллекта AIRI и Московского технического университета связи и информатики МТУСИ разработали систему, которая определяет признаки генерации синтетического голоса, используемую телефонными мошенниками. По мнению ученых, разработку можно использовать для борьбы с телефонными мошенниками или повышения безопасности систем, использующих голосовую аутентификацию. Также разработчики отмечают, что внедрение подобных передовых методов существенно повышает уровень безопасности и защищенности от атак, основанных на подмене голоса. : ВКонтакте, Одноклассники, Дзен
Технологии289 дней назад


ТАСС / Наука
В РФ создали систему для борьбы с телефонными мошенниками. С помощью ИИ она определяет признаки генерации синтетического голоса, которую используют мошенники. Разработка может использоваться также для повышения безопасности систем, использующих голосовую аутентификацию, сообщили ТАСС в пресс-службе Института искусственного интеллекта AIRI. / Наука
Технологии289 дней назад

42 секунды
ТАСС: В России создали ИИ-систему для борьбы с телефонными мошенниками – Новую ИИ-модель разработали специалисты AIRI и МТУСИ – Модель вошла в топ-10 решений Asvspoof 2024 Challenge – При помощи ИИ она определяет признаки генерации голоса – Система защищает от атак, основанных на подмене голоса – Система обладает высокой точностью распознания подделки – В основе работы лежит ИИ-решение по анализу аудиоряда – Для новой ИИ-системы доступны разные способы интеграции – От внедрения отдельного софта до интеграции в ИБ-системы – Она может повысить безопасность систем с голосовой аутентификацией
Технологии289 дней назад

🧠 Центр Знаний AI
В AIRI и МТУСИ представили ИИ-модель AASIST3 для определения сгенерированных голосов С этой целью специалисты использовали ИИ-модель AASIST для анализа аудиоряда, созданную ранее зарубежными учеными. Также они применили KAN-сети, дополнительные слои и предварительное обучение, что позволило улучшить производительность модели более чем в два раза по сравнению с базовым решением. По словам ученых, модель может применяться в различных сферах, включая финансовый сектор и телеком. Основная цель разработки — противодействие голосовому мошенничеству и повышение безопасности систем, использующих голосовую аутентификацию. Интеграция может осуществляться различными способами, от внедрения отдельного программного решения до встраивания в существующие системы безопасности через API. Статья на arxiv.org Источник:
Технологии288 дней назад


Отдел К: IT-технологии, кибербезопасность
Российские ученые разработали ИИ-систему для борьбы с подделкой голосов телефонными мошенниками Институт искусственного интеллекта AIRI и Московский технический университет связи и информатики МТУСИ разработали новаторскую систему на базе искусственного интеллекта ИИ , которая позволяет определять синтетические голоса, используемые телефонными мошенниками. Новая модель способна учитывать контекст и детали голосовых данных, что делает распознавание подделок более эффективным. Система демонстрирует высокую точность и может адаптироваться к новым видам угроз. Разработка имеет производительность вдвое выше, чем аналогичные модели, созданные учеными из Южной Кореи и Франции. Она может применяться для защиты от телефонного мошенничества и повышения безопасности систем голосовой аутентификации.
Технологии288 дней назад



Блохи в свитере
Российские учёные создали систему, выявляющую голосовые дипфейки с помощью ИИ. Учёные считают, что эту разработку можно использовать для борьбы с телефонными мошенниками, либо повышать с ее помощью безопасность систем, использующих голосовую аутентификацию.
Технологии289 дней назад


AIRI Institute
Исследователи AIRI и МТУСИ разработали ИИ-модель для определения синтетических голосов, которые используют телефонные мошенники Системы голосовой биометрии могут быть уязвимы к состязательным атакам, когда определенным образом настроенное небольшое изменение входного аудио приводит к значительному изменению результатов работы модели. В 2021 году появилась надёжная ИИ-модель AASIST для защиты от подмены голоса, но в наши дни её функционала уже недостаточно. Команда «Доверенные и безопасные интеллектуальные системы» AIRI и команда НИО «Интеллектуальные решения» МТУСИ при участии аспиранта Сколтеха усовершенствовали её, разработав архитектуру AASIST3. Применение сети Колмогорова-Арнольда KAN , дополнительных слоев и предварительного обучения, лучшего feature extractor, а также специальных обучающих функций, позволило улучшить производительность модели более чем в два раза по сравнению с базовым решением. Кроме того, созданная модель продемонстрировала лучшую обобщающую способность к новым видам атак. Научная статья была представлена на конференции "Interspeech 2024", а также вошла в топ-10 лучших решений международного соревнования ASVspoof 2024 Challenge Подробнее про исследование читайте в материале ТАСС.
Технологии289 дней назад

Горизонты искусственного интеллекта
В AIRI и МТУСИ представили ИИ-модель AASIST3 для определения сгенерированных голосов С этой целью специалисты использовали ИИ-модель AASIST для анализа аудиоряда, созданную ранее зарубежными учеными. Также они применили KAN-сети, дополнительные слои и предварительное обучение, что позволило улучшить производительность модели более чем в два раза по сравнению с базовым решением. По словам ученых, модель может применяться в различных сферах, включая финансовый сектор и телеком. Основная цель разработки — противодействие голосовому мошенничеству и повышение безопасности систем, использующих голосовую аутентификацию. Интеграция может осуществляться различными способами, от внедрения отдельного программного решения до встраивания в существующие системы безопасности через API. Статья на arxiv.org Источник:
Технологии288 дней назад

РР - все новости
В Москве ученые из МТУЦИ и Института AIRI представили модель AASIST3 для обнаружения поддельных голосов. Новая архитектура обеспечивает защиту от голосового мошенничества и повышает безопасность систем аутентификации. Модель будет востребована в финансовом секторе и телекоммуникациях.
Технологии288 дней назад


КиберФронт: Технологии и Безопасность
Российские ученые разработали ИИ-систему для борьбы с подделкой голосов телефонными мошенниками Институт искусственного интеллекта AIRI и Московский технический университет связи и информатики МТУСИ разработали новаторскую систему на базе искусственного интеллекта ИИ , которая позволяет определять синтетические голоса, используемые телефонными мошенниками. Новая модель способна учитывать контекст и детали голосовых данных, что делает распознавание подделок более эффективным. Система демонстрирует высокую точность и может адаптироваться к новым видам угроз. Разработка имеет производительность вдвое выше, чем аналогичные модели, созданные учеными из Южной Кореи и Франции. Она может применяться для защиты от телефонного мошенничества и повышения безопасности систем голосовой аутентификации.
Технологии288 дней назад

Похожие новости



+2



+9



+9



+37



+5



+7

Создан алгоритм для защиты голосовых данных от дипфейков
Технологии
13 часов назад




Генеративный ИИ становится ключевым инструментом для бизнеса на GigaConf 2025
Технологии
1 день назад




Токаев подчеркивает важность цифровизации для ЕАЭС на форуме в Минске
Общество
1 день назад




Эксперты предупреждают о росте мошенничества с использованием схемы 'Единый агрегатор госуслуг'
Происшествия
1 день назад




В Томске стартовала установка новых систем оповещения
Общество
1 день назад




На Reddit появляются группы поддержки для людей с зависимостью от чат-ботов
Технологии
15 часов назад


