10 сентября, 11:32
Рост доли ложных ответов у чат-ботов: ИИ сталкивается с дезинформацией


Лапша Медиа
Нейросети стали в два раза чаще дезинформировать людей Число ложных ответов за последний год выросло с 18 до 35 Какие ИИ модели чаще обманывают пользователей Почему ухудшились результаты Отвечаем на вопросы и рассказываем подробнее об исследовании в нашем канале в МАХ Подпишитесь на Лапша Медиа Больше эксклюзива в нашем МАХ
Технологии70 дней назад


CIO: канал IT руководителей
Доля ложных ответов нейросетей выросла с 18 до 35 за год Известия Чат боты стали генерировать в два раза больше ложной информации доля ошибочных утверждений выросла с 18 до 35 за последний год предупредили исследователи из компании NewsGuard США Рост ложных ответов в результатах оказался таким Чат бот Pi стартап Inflection до 57 Perplexity компания Perplexity AI рост с 0 до 47 ChatGPT компания Open AI рост с 33 до 40 Grok компания xAI рост с 13 до 33 Gemini компания Google 17 Claude компания Anthropic 10 Особенно проблема заметна в многоязычных режимах в русскоязычных и китайских запросах доля ошибок превышает 50 процентов В качестве решения разрабатываются методы выявления галлюцинаций ИИ с повышенной точностью
Технологии69 дней назад


Московский часовой
Популярные чат боты стали ошибаться в два раза чаще за последний год Процент неправильных ответов вырос с 18 до 35 Аналитики считают что основных причин две ИИ перестал воздерживаться от ответов хотя раньше больше чем в 30 случаев бот говорил что не будет ничего советовать Чат боты цитируют сайты двойники и псевдо СМИ принимая их за проверенные источники Изображение Pinterest
Технологии67 дней назад
Важные материалы
Нейросети стали в два раза чаще распространять фейки Ведущие чат боты стали давать в два раза больше ложной информации Как уточнили эксперты доля таких ответов выросла с 18 до 35 несмотря на технологический прогресс и интеграцию онлайн поиска О росте массива недостоверной информации среди ведущих чат ботов в том числе у ChatGPT и Perplexity предупредили исследователи из компании NewsGuard США Всего было протестировано 10 популярных ИИ моделей каждой задали по 10 десять заведомо ложных утверждений связанных с бизнесом брендами и политическими событиями Рост ложных ответов в результатах оказался таким Чат бот Pi стартап Inflection до 57 Perplexity компания Perplexity AI рост с 0 до 47 ChatGPT компания Open AI рост с 33 до 40 Grok компания xAI рост с 13 до 33 Gemini компания Google 17 Claude компания Anthropic 10 По данным экспертов несмотря на технологический прогресс и интеграцию онлайн поиска доля ложных утверждений в ответах выросла с 18 до 35 Современный контент всё активнее создается с помощью ИИ дипфейки статьи посты для соцсетей и мессенджеров дополняет ведущий эксперт по сетевым угрозам и web разработчик компании Код Безопасности Константин Горбунов iz ru 1951667 dmitrii bulgakov nad propastu iz lzi neiroseti stali case davat feikovye otvety
Технологии63 дня назад



66.RU | Новости из Екатеринбурга
Фейковые ответы стали чаще давать нейросети Доля ошибочных утверждений от искусственного интеллекта за последний год выросла с 18 до 35 На ухудшение статистики могло повлиять то что нейросети теперь отвечают на любые запросы даже без достаточной верификации информации А вы заметили что ИИ привирает да нет Фото Сергей Лантюхов Известия
Технологии69 дней назад

РСпектр: ИТ, связь, медиа
Доля ложных ответов нейросетей выросла с 18 до 35 за год Чат боты стали генерировать в два раза больше ложной информации доля ошибочных утверждений выросла с 18 до 35 за последний год Наибольший рост зафиксирован у чат бота Pi до 57 и Perplexity с 0 до 47 в то время как ChatGPT увеличил долю ошибок с 33 до 40 показало исследование компании NewsGuard Особенно проблема заметна в многоязычных режимах в русскоязычных и китайских запросах доля ошибок превышает 50 процентов В качестве решения разрабатываются методы выявления галлюцинаций ИИ с повышенной точностью Подписаться vk com rspectr com Подписаться t me rspectr
Технологии69 дней назад

Клуб 4CIO
Над пропастью во лжи доля ложных ответов нейросетей выросла с 18 до 35 за год Недавнее исследование NewsGuard показало тревожную тенденцию ведущие ИИ модели ChatGPT Perplexity и др все чаще дают фейковые ответы Доля ложной информации выросла с 18 до 35 за последний год несмотря на технологический прогресс и доступ к онлайн поиску Были протестированы 10 популярных моделей каждой задали по 10 заведомо ложных утверждений по темам бизнес бренды политика Вопросы делились на три типа утверждения нейтральные провокационные Цель оценить как модели справляются с фактчеками и манипуляциями Perplexity теперь ошибается почти в половине случаев 47 Pi в 57 ChatGPT около 40 Почему растет уровень ошибок ИИ сейчас отказываются меньше раньше они могли просто не давать ответ если не уверены Теперь отвечают практически на все даже когда данных недостаточно Использование веб поиска встроено в многие модели но качество источников не всегда проверяется Псевдо СМИ сайты двойники вводят в заблуждение LLM grooming когда создают контент специально под алгоритмы ИИ чтобы ИИ принимал его за достоверный Возросла проблема в многоязычности запросы на русском и китайском языках чаще приводят к ошибкам и ложным утверждениям Что по вашему мнению самое важное в борьбе с фейковыми ответами от ИИ Обсудим это в секции Барабан канат и ИИ Как получить реальную пользу от ИИ при помощи теории ограничений
Технологии68 дней назад

РАЗВЕДДАННЫЕ
Ведущие чат боты за последний год стали в два раза чаще давать ошибочные ответы с 18 до 35 По мнению аналитиков на ухудшение статистики могло повлиять то что сегодня нейросети не отказываются отвечать на любые запросы даже без достаточной верификации информации хотя еще в 2024 году они воздерживались от 31 ответов Также модели нередко цитируют сайты двойники или псевдо СМИ принимая их за авторитетные издания Ситуацию усугубляют целенаправленные кампании по дрессировке ИИ которые массово публикуют материалы ориентированные на поисковых роботов чтобы увеличить вероятность включения ложных данных в ответы моделей
Технологии67 дней назад


DNS_Club
Чат боты на базе ИИ стали вдвое чаще распространять недостоверную информацию Newsguard Если летом 2024 года искусственный интеллект транслировал фейки в 18 случаев то к сегодняшнему дню этот показатель вырос до 35 Крупнейшие генеративные ИИ сервисы стали в два раза чаще распространять ложную информацию при ответах на новостные запросы
Технологии64 дня назад

Образование, которое мы заслужили
Нейросети стали чаще давать фейковые ответы Ведущие чат боты стали давать в два раза больше ложной информации Как уточнили эксперты доля таких ответов выросла с 18 до 35 несмотря на технологический прогресс и интеграцию онлайн поиска О росте массива недостоверной информации среди ведущих чат ботов в том числе у ChatGPT и Perplexity предупредили исследователи из компании NewsGuard США По данным экспертов несмотря на технологический прогресс и интеграцию онлайн поиска доля ложных утверждений в ответах выросла Всего было протестировано 10 популярных ИИ моделей каждой задали по 10 десять заведомо ложных утверждений связанных с бизнесом брендами и политическими событиями При этом все вопросы делились на три категории предполагающие истинность утверждения нейтральные и провокационные Эксперты поставили себе цель определить как нейросети справляются с фактчекингом и насколько они устойчивы к дезинформации По мнению аналитиков NewsGuard на ухудшение статистики могло повлиять то что сегодня нейросети не отказываются отвечать на любые запросы даже без достаточной верификации информации хотя еще в 2024 году они воздерживались от 31 ответов Ситуацию усугубляют целенаправленные кампании по дрессировке ИИ так называемый LLM grooming Суть этого явления в том что некоторые недобросовестные ресурсы массово публикуют материалы ориентированные на поисковых роботов чтобы увеличить вероятность включения ложных данных в ответы моделей Отдельная уязвимость проявляется в многоязычных режимах в аудите NewsGuard наибольший уровень ошибок и отказов зафиксирован в русскоязычных и китайских запросах свыше 50 в совокупности Чтобы защититься от подобных угроз пользователям всегда следует критически относиться к ответам ИИ и проверять их достоверность Важно четко понимать в каких сферах применение искусственного интеллекта допустимо а в каких нет
Технологии64 дня назад

Похожие новости



+2




+3



+29






+2

SberTech представил доклад о будущем ИИ и его влиянии на общество
Общество
1 день назад


+2
Изменения в IT-сфере: адаптация компаний к новым технологиям
Технологии
3 часа назад

Опрос ВЦИОМ: 63% россиян доверяют результатам общественного мнения
Наука
1 день назад


+3
Сбой в Cloudflare вызывает глобальные проблемы с доступом к интернет-ресурсам
Происшествия
1 час назад


+29
ГигаЧат запускает функцию генерации подкастов с выбором стиля и длины
Технологии
1 день назад


Анализ политической системы России: вызовы и изменения в условиях цифровой эпохи
Общество
1 день назад


+2