В России создали систему для выявления голосовых дипфейков   ‍ Специалисты из Института искусственного интеллекта AIRI и Московского технического университета связи и информатики  МТУСИ  разработали систему, которая определяет признаки генерации синтетического голоса,  используемую телефонными мошенниками.   По мнению ученых, разработку можно использовать для борьбы с телефонными мошенниками или повышения безопасности систем, использующих голосовую аутентификацию.   Также разработчики отмечают, что внедрение подобных передовых методов существенно повышает уровень безопасности и защищенности от атак, основанных на подмене голоса.     : ВКонтакте, Одноклассники, Дзен
Цифра63
Цифра63
В России создали систему для выявления голосовых дипфейков ‍ Специалисты из Института искусственного интеллекта AIRI и Московского технического университета связи и информатики МТУСИ разработали систему, которая определяет признаки генерации синтетического голоса, используемую телефонными мошенниками. По мнению ученых, разработку можно использовать для борьбы с телефонными мошенниками или повышения безопасности систем, использующих голосовую аутентификацию. Также разработчики отмечают, что внедрение подобных передовых методов существенно повышает уровень безопасности и защищенности от атак, основанных на подмене голоса. : ВКонтакте, Одноклассники, Дзен
В РФ создали систему для борьбы с телефонными мошенниками. С помощью ИИ она определяет признаки генерации синтетического голоса, которую используют мошенники.  Разработка может использоваться также для повышения безопасности систем, использующих голосовую аутентификацию, сообщили ТАСС в пресс-службе Института искусственного интеллекта AIRI.     / Наука
ТАСС / Наука
ТАСС / Наука
В РФ создали систему для борьбы с телефонными мошенниками. С помощью ИИ она определяет признаки генерации синтетического голоса, которую используют мошенники. Разработка может использоваться также для повышения безопасности систем, использующих голосовую аутентификацию, сообщили ТАСС в пресс-службе Института искусственного интеллекта AIRI. / Наука
42 секунды
42 секунды
ТАСС: В России создали ИИ-систему для борьбы с телефонными мошенниками – Новую ИИ-модель разработали специалисты AIRI и МТУСИ – Модель вошла в топ-10 решений Asvspoof 2024 Challenge – При помощи ИИ она определяет признаки генерации голоса – Система защищает от атак, основанных на подмене голоса – Система обладает высокой точностью распознания подделки – В основе работы лежит ИИ-решение по анализу аудиоряда – Для новой ИИ-системы доступны разные способы интеграции – От внедрения отдельного софта до интеграции в ИБ-системы – Она может повысить безопасность систем с голосовой аутентификацией
🧠 Центр Знаний AI
🧠 Центр Знаний AI
В AIRI и МТУСИ представили ИИ-модель AASIST3 для определения сгенерированных голосов С этой целью специалисты использовали ИИ-модель AASIST для анализа аудиоряда, созданную ранее зарубежными учеными. Также они применили KAN-сети, дополнительные слои и предварительное обучение, что позволило улучшить производительность модели более чем в два раза по сравнению с базовым решением. По словам ученых, модель может применяться в различных сферах, включая финансовый сектор и телеком. Основная цель разработки — противодействие голосовому мошенничеству и повышение безопасности систем, использующих голосовую аутентификацию. Интеграция может осуществляться различными способами, от внедрения отдельного программного решения до встраивания в существующие системы безопасности через API. Статья на arxiv.org Источник:
Российские ученые разработали ИИ-систему для борьбы с подделкой голосов телефонными мошенниками  Институт искусственного интеллекта AIRI и Московский технический университет связи и информатики  МТУСИ  разработали новаторскую систему на базе искусственного интеллекта  ИИ , которая позволяет определять синтетические голоса, используемые телефонными мошенниками.  Новая модель способна учитывать контекст и детали голосовых данных, что делает распознавание подделок более эффективным. Система демонстрирует высокую точность и может адаптироваться к новым видам угроз.  Разработка имеет производительность вдвое выше, чем аналогичные модели, созданные учеными из Южной Кореи и Франции. Она может применяться для защиты от телефонного мошенничества и повышения безопасности систем голосовой аутентификации.
Отдел К: IT-технологии, кибербезопасность
Отдел К: IT-технологии, кибербезопасность
Российские ученые разработали ИИ-систему для борьбы с подделкой голосов телефонными мошенниками Институт искусственного интеллекта AIRI и Московский технический университет связи и информатики МТУСИ разработали новаторскую систему на базе искусственного интеллекта ИИ , которая позволяет определять синтетические голоса, используемые телефонными мошенниками. Новая модель способна учитывать контекст и детали голосовых данных, что делает распознавание подделок более эффективным. Система демонстрирует высокую точность и может адаптироваться к новым видам угроз. Разработка имеет производительность вдвое выше, чем аналогичные модели, созданные учеными из Южной Кореи и Франции. Она может применяться для защиты от телефонного мошенничества и повышения безопасности систем голосовой аутентификации.
Loading indicator gif
Умный помощник, который всегда под рукой
1chatgpt.ru
1chatgpt.ru
Умный помощник, который всегда под рукой
Блохи в свитере
Блохи в свитере
Российские учёные создали систему, выявляющую голосовые дипфейки с помощью ИИ. Учёные считают, что эту разработку можно использовать для борьбы с телефонными мошенниками, либо повышать с ее помощью безопасность систем, использующих голосовую аутентификацию.
Исследователи AIRI и МТУСИ разработали ИИ-модель для определения синтетических голосов, которые используют телефонные мошенники    Системы голосовой биометрии могут быть уязвимы к состязательным атакам, когда определенным образом настроенное небольшое изменение входного аудио приводит к значительному изменению результатов работы модели. В 2021 году появилась надёжная ИИ-модель AASIST для защиты от подмены голоса, но в наши дни её функционала уже недостаточно.  Команда «Доверенные и безопасные интеллектуальные системы» AIRI и команда НИО «Интеллектуальные решения» МТУСИ при участии аспиранта Сколтеха усовершенствовали её, разработав архитектуру AASIST3.   Применение сети Колмогорова-Арнольда  KAN , дополнительных слоев и предварительного обучения, лучшего feature extractor, а также специальных обучающих функций, позволило улучшить производительность модели более чем в два раза по сравнению с базовым решением. Кроме того, созданная модель продемонстрировала лучшую обобщающую способность к новым видам атак.   Научная статья была представлена на конференции "Interspeech 2024", а также вошла в топ-10 лучших решений международного соревнования ASVspoof 2024 Challenge     Подробнее про исследование читайте в материале ТАСС.
AIRI Institute
AIRI Institute
Исследователи AIRI и МТУСИ разработали ИИ-модель для определения синтетических голосов, которые используют телефонные мошенники Системы голосовой биометрии могут быть уязвимы к состязательным атакам, когда определенным образом настроенное небольшое изменение входного аудио приводит к значительному изменению результатов работы модели. В 2021 году появилась надёжная ИИ-модель AASIST для защиты от подмены голоса, но в наши дни её функционала уже недостаточно. Команда «Доверенные и безопасные интеллектуальные системы» AIRI и команда НИО «Интеллектуальные решения» МТУСИ при участии аспиранта Сколтеха усовершенствовали её, разработав архитектуру AASIST3. Применение сети Колмогорова-Арнольда KAN , дополнительных слоев и предварительного обучения, лучшего feature extractor, а также специальных обучающих функций, позволило улучшить производительность модели более чем в два раза по сравнению с базовым решением. Кроме того, созданная модель продемонстрировала лучшую обобщающую способность к новым видам атак. Научная статья была представлена на конференции "Interspeech 2024", а также вошла в топ-10 лучших решений международного соревнования ASVspoof 2024 Challenge Подробнее про исследование читайте в материале ТАСС.
Горизонты искусственного интеллекта
Горизонты искусственного интеллекта
В AIRI и МТУСИ представили ИИ-модель AASIST3 для определения сгенерированных голосов С этой целью специалисты использовали ИИ-модель AASIST для анализа аудиоряда, созданную ранее зарубежными учеными. Также они применили KAN-сети, дополнительные слои и предварительное обучение, что позволило улучшить производительность модели более чем в два раза по сравнению с базовым решением. По словам ученых, модель может применяться в различных сферах, включая финансовый сектор и телеком. Основная цель разработки — противодействие голосовому мошенничеству и повышение безопасности систем, использующих голосовую аутентификацию. Интеграция может осуществляться различными способами, от внедрения отдельного программного решения до встраивания в существующие системы безопасности через API. Статья на arxiv.org Источник:
РР - все новости
РР - все новости
В Москве ученые из МТУЦИ и Института AIRI представили модель AASIST3 для обнаружения поддельных голосов. Новая архитектура обеспечивает защиту от голосового мошенничества и повышает безопасность систем аутентификации. Модель будет востребована в финансовом секторе и телекоммуникациях.
Российские ученые разработали ИИ-систему для борьбы с подделкой голосов телефонными мошенниками  Институт искусственного интеллекта AIRI и Московский технический университет связи и информатики  МТУСИ  разработали новаторскую систему на базе искусственного интеллекта  ИИ , которая позволяет определять синтетические голоса, используемые телефонными мошенниками.  Новая модель способна учитывать контекст и детали голосовых данных, что делает распознавание подделок более эффективным. Система демонстрирует высокую точность и может адаптироваться к новым видам угроз.  Разработка имеет производительность вдвое выше, чем аналогичные модели, созданные учеными из Южной Кореи и Франции. Она может применяться для защиты от телефонного мошенничества и повышения безопасности систем голосовой аутентификации.
КиберФронт: Технологии и Безопасность
КиберФронт: Технологии и Безопасность
Российские ученые разработали ИИ-систему для борьбы с подделкой голосов телефонными мошенниками Институт искусственного интеллекта AIRI и Московский технический университет связи и информатики МТУСИ разработали новаторскую систему на базе искусственного интеллекта ИИ , которая позволяет определять синтетические голоса, используемые телефонными мошенниками. Новая модель способна учитывать контекст и детали голосовых данных, что делает распознавание подделок более эффективным. Система демонстрирует высокую точность и может адаптироваться к новым видам угроз. Разработка имеет производительность вдвое выше, чем аналогичные модели, созданные учеными из Южной Кореи и Франции. Она может применяться для защиты от телефонного мошенничества и повышения безопасности систем голосовой аутентификации.
Loading indicator gif