4 июня, 13:29
Исследование: более 60% россиян не распознают дипфейки среди реальных фотографий

Опросы и замеры
Эксперимент: большинство россиян не могут отличить дипфейк от реальной фотографии Респондентам показывали десять изображений людей: четыре были сгенерированы ИИ, а шесть – реальными снимками. Каждое сгенерированное изображение не менее 60% опрошенных принимали за реальное одно из изображений назвали реальным 81% . А три из шести реальных фотографий большинство посчитали дипфейками. Опросы и замеры, исследование MWS AI
Технологии4 дня назад

Доктор Z прописал
Более 60% соотечественников не могут отличить изображения, созданные искусственным интеллектом, от настоящих фотографий Участникам эксперимента продемонстрировали десять изображений людей: четыре из них были сгенерированы ИИ, а шесть представляли собой реальные фотографии Из четырех ИИ-снимков три были созданы с помощью специализированной нейросети, предназначенной для генерации дипфейков, и одно — при помощи большой языковой модели, которая формирует изображения по текстовому описанию Результаты опроса показали, что большая часть респондентов не смогла распознать дипфейки: все три портрета, созданные с помощью специализированной нейросети, большинство участников приняли за подлинные фотографии В каждом из этих случаев доля правильных ответов не превысила 40%. Один из дипфейков 81% опрошенных приняли за изображение настоящего человека В то же время изображение, созданное обычной языковой моделью, участники чаще определяли как сгенерированное При этом большинство респондентов сочли три из шести реальных фотографий дипфейками Авторы исследования отметили, что для формирования безопасной цифровой среды в условиях широкого распространения генеративных технологий необходимы такие меры, как добровольная маркировка ИИ-контента в сфере маркетинга и рекламы, повышение уровня защиты финансовых сервисов, развитие стандартов для использования ИИ в государственном секторе, а также внедрение программ цифровой грамотности
Технологии3 дня назад


КиберХаб - IT и Нейросети
Более 60% участников опроса не смогли отличить дипфейк от реального фото — даже те, кто регулярно работает с ИИ. В эксперименте участвовало более 1600 человек. Им показали 10 изображений, 4 из которых были сгенерированы ИИ. Результаты неутешительные: Уверенно распознали подделки менее 40% человек; 3 настоящих фото из 6 приняли за фейк; До 80% респондентов ошибались при оценке дипфейков. Страшно, очень страшно. КиберХаб БотGPT
Технологии3 дня назад



Владимирские новости
Владимирцам рассказали, как распознать ИИ-контент и фейки Эксперты ВТБ рассказали, как отличить тексты и изображения, созданные нейросетями: сгенерированный визуальный контент чаще всего выдают анатомические ошибки, искажения перспективы и нелогичные детали в кадре, а ИИ-тексты - избыточная шаблонность, повторяемость формулировок и упрощенный стиль. ↗ Прислать новость Подписаться
Технологии3 дня назад

Физики и Юрики
Всё дело — в деталях Генеративные нейросети могут ввести в заблуждение. ИИ создаёт тексты, иллюстрации и видеоролики, которые часто выглядят правдоподобными. Чтобы отличить их от настоящих, потребуются системный подход, цифровая грамотность и внимание. Картинку от ИИ могут выдать, например, анатомические неточности, нарушение законов физики, искажение перспективы, ненатуральные тени или бессмысленные надписи. Сгенерированные тексты часто отличаются однотипными формулировками и интонацией, избыточным дружелюбием, лишними пояснениями, большим объёмом воды. Для проверки можно использовать и специальные инструменты. Так, в планах ВТБ — обучение моделей-детекторов, которые смогут отслеживать в ИИ-контенте чувствительные темы, а также проверять достоверность выдачи. Эксперты банка говорят, что такой подход необходим при работе с базами знаний и клиентскими интерфейсами, чтобы исключить риск дезинформации и некорректных формулировок.
Технологии2 дня назад


MTS AI
Не POV, а REAL: более 60% россиян не распознают дипфейки Мы провели исследование и предложили 1600+ россиянам определить в наборе из 10 фотографий те, что сгенерированы специализированной нейронкой. Большинство респондентов не смогли распознать дипфейки человека. Более того, только 3 реальных фото из 6 были отмечены респондентами как подлинные. Ошибались даже те, кто часто взаимодействует с ИИ Результатами исследования поделились тут. А вы как думаете, какие фото в этом посте настоящие? #MTSAI_исследование
Технологии2 дня назад
Похожие новости



+32



+7



+6



+3



+2




Мошенники используют изображения россиян для создания дипфейков
Происшествия
1 день назад




GigaChat 2.0 представил новую функцию редактирования изображений без артефактов
Технологии
1 день назад




Дмитрий Чернышенко объявил о выделении 4,7 млрд рублей на исследовательские центры в сфере ИИ
Общество
20 часов назад




Константин Маркелов на конференции ЦИПР-2025: Бизнес и образование должны объединиться для подготовки специалистов в области ИИ
Общество
1 день назад




ИИ помогает компаниям экономить до 12 часов рабочего времени в неделю
Технологии
1 день назад




ИИ-агент Manus запускает функцию генерации видеороликов из текстовых промптов
Технологии
12 часов назад


