14 апреля, 18:20
Исследование показывает высокую ошибочность ИИ в диагнозах
Редакционное саммари
В недавнем исследовании, опубликованном в JAMA Network Open, было установлено, что искусственный интеллект (ИИ) демонстрирует высокий уровень ошибок при первичной диагностике пациентов. Анализ 21 модели, включая разработки OpenAI и DeepSeek, показал, что в более чем 80% случаев ИИ неправильно интерпретирует данные, особенно при недостаточной информации о пациенте.
В ходе исследования были протестированы различные языковые модели на основе 29 медицинских историй из справочника MSD Manual. Модели успешно справлялись с окончательной постановкой диагноза, однако на этапе дифференциальной диагностики, где требуется учитывать множество возможных вариантов, уровень ошибок превышал 80%. Эксперты, такие как клинический эпидемиолог Санджай Кинра, подчеркивают, что ИИ не способен эффективно работать в условиях неопределенности, что делает его использование в качестве основного инструмента диагностики рискованным.
Данное исследование поднимает важные вопросы о применении ИИ в медицине. Несмотря на то что технологии развиваются и могут быть полезны в качестве вспомогательных инструментов, полагаться на них при постановке диагноза или интерпретации анализов нецелесообразно. Важно помнить, что ИИ может быть использован для объяснения уже установленных врачом диагнозов или предоставления общей информации о здоровье, но не для самодиагностики. Это исследование подчеркивает необходимость осторожного подхода к внедрению ИИ в медицинскую практику и акцентирует внимание на важности человеческого фактора в процессе диагностики.
Беспощадный Банкстер
ИИ чат боты ошибаются в диагнозах более чем в 80 ранних случаев Исследование показало что популярные модели включая разработки OpenAI и DeepSeek часто делают выводы слишком быстро и при недостатке информации о пациенте из за чего дают неверные рекомендации Эксперты подчёркивают что такие системы могут быть полезны только как вспомогательный инструмент но полагаться на них при постановке диагноза или расшифровке анализов опасно bezposhady
investing
Точность диагностики ИИ Искусственный интеллект допускает ошибки в первичной постановке диагноза у 80 пациентов JAMA Network Open Анализ 21 модели выявил высокий процент ошибок свыше 80 при дифференциальной диагностике Недостаточная информация ведет к неверным заключениям системы слабо формируют перечень гипотез и быстро сужают направление поиска Однако при наличии полных данных точность повышается до уровня менее 40 отдельные передовые разработки демонстрируют показатель до 90 По словам клинического эпидемиолога Санджая Кинры Лондонская школа гигиены современные инструменты перспективны однако они пока не способны заменить профессионального медика investing investing
Подъём
Медицина от нейросети риск в каждом втором совете Чат боты в половине случаев дают проблематичные медицинские рекомендации выяснили ученые Исследователи протестировали пять популярных моделей ChatGPT Grok Gemini DeepSeek и Meta AI задав каждой по 10 вопросов Качество ответов оказалось примерно одинаковым боты выдавали сомнительные советы уверенно и без тени сомнения Meta признана экстремистской и запрещена в РФ Подписаться на tv360 I Обратная связь I Наш канал в MAX
Крыминформ
Учёные чат боты дают проблемные медицинские советы в половине случаев Международная группа исследователей провела аудит пяти популярных генеративных нейросетей и выявила что около 50 их медицинских рекомендаций являются проблемными Результаты опубликованы в научном журнале BMJ Open Специалисты оценивали работу чат ботов ChatGPT Grok Gemini DeepSeek и Meta AI компания признана экстремистской и запрещена в РФ Общая доля проблемных ответов составила 49 6 Из них 30 были классифицированы как умеренно проблемные а 19 6 как крайне проблемные то есть потенциально опасные при практическом применении При этом чат боты демонстрировали уверенность в своих ответах и реже отказывались от комментария Наибольшая доля проблемных ответов зафиксирована у модели Grok 58 Худшие результаты по вопросам питания спортивной медицины и терапии стволовыми клетками Исследователи отмечают что слепое доверие к ИИ без врачебного контроля может способствовать распространению дезинформации и представлять угрозу для человека Принадлежит компании Meta признанной в России экстремистской crimeainform Наш канал в MAX
Наука
ИИ провалили тест на медицинскую грамотность Недавнее исследование выявило пугающую статистику половина медицинской информации от пяти самых популярных ИИ чат ботов неточна или неполна Из проанализированных ответов 30 были признаны умеренно проблемными а 20 крайне опасными Ученые предупреждают о распространении дезинформации В ходе эксперимента проведенного в феврале 2025 года тестировали Gemini DeepSeek ChatGPT Grok Каждому задали по 10 вопросов в пяти категориях рак вакцины стволовые клетки питание спортивные результаты Вопросы были сформулированы так чтобы проверить устойчивость моделей к популярным мифам и потенциально опасным советам Результаты показали что тип вопроса напрямую влияет на качество ответа Открытые вопросы требующие развернутого списка рекомендаций спровоцировали 40 крайне проблемных ответов Хуже всех себя проявил Grok от xAI 58 ответов опасны Лучше Gemini Нейросети справлялись с вопросами о вакцинации и раке но показали катастрофические результаты по питанию спортивным добавкам и терапии стволовыми клетками Ответы подавались с абсолютной уверенностью без оговорок о консультации с врачом Средний балл полноты ссылок 40 Исследователи зафиксировали многочисленные случаи галлюцинаций ИИ выдумывал несуществующие научные статьи Язык ответов требовал уровня образования не ниже выпускника университета Авторы призывают к надзору за ИИ и просвещению населения Полагаться на советы чат ботов в вопросах жизни и смерти недопустимо Telegram МAX все наши каналы
Uzbek-MDK
Обсуждать здоровье с ChatGPT может быть опасно предупреждают эксперты Люди всё чаще используют чат боты для обсуждения симптомов но такие диалоги могут усиливать тревогу и зацикливать на болезнях По данным OpenAI более 40 млн человек ежедневно обращаются к ChatGPT за медицинской информацией Эксперты предупреждают длительное общение с ИИ может приводить к зависимости усилению тревожных расстройств и даже психическим срывам Покажи эту новость знакомому который лечится с помощью ChatGPT Подпишитесь и следите за актуальными новостями на нашем канале telegram me joinchat AAAAAEEdc qam7052mnXKA
Банкста
Искусственный интеллект ошибается в первичном диагнозе пациентов в 80 случаев Исследование JAMA Network Open показывает что ИИ модели от OpenAI Google и DeepSeek часто ошибаются при недостатке данных Анализ 21 модели выявил уровень ошибок при дифференциальной диагностике превышает 80 Модели плохо формируют список гипотез и преждевременно сужают диагноз При полной информации точность растет ошибки падают ниже 40 лучшие модели достигают 90 По мнению клинического эпидемиолога Санджая Кинры Лондонская школа гигиены технологии перспективны но пока не заменят врача banksta
Конспекты Юджина 📗
Когда чат боты НЕверно ставят диагноз Протестировали большие языковые модели DeepSeek ChatGPT Grok и др на умение ставить диагнозы Оказалось что чат боты относительно хорошо ставят финальный диагноз но проваливаются именно там где это особенно опасно Что сделали Протестировали 21 современную языковую модель на медицинских задачах Для этого взяли 29 медицинских историй болезни из профессионального справочника MSD Manual Чат ботам нужно было пройти 5 этапов как настоящему врачу 1 Провести дифференциальную диагностику сперва описывались симптомы пациента нужно было предположить возможные диагнозы Запомните этот этап дальше это важно 2 Назначить обследования анализы снимки и тесты которые помогут уточнить диагноз 3 Поставить окончательный диагноз когда получены все результаты обследований 4 Назначить лечение 5 Ответить на дополнительные вопросы например о прогнозе осложнениях Модели которые проверяли GPT 4o o1 o1 Pro o3 Mini 4 5 и GPT 5 Claude 3 5 Haiku 3 5 Sonnet 3 7 Sonnet 3 Opus 4 5 Opus DeepSeek V3 и R1 Gemini 1 5 Flash 1 5 Pro 2 0 Flash 2 5 Pro 3 0 Flash 3 0 Pro Grok 3 и 4 Результаты Окончательный диагноз модели поставили относительно хорошо Они ошибались в 9 39 случаев Тут важно учитывать что он ставился после назначения и прохождения всех необходимых обследований Однако на этапе дифференциальной диагностики чат боты показали себя очень плохо ВСЕ модели ошибались в более чем 80 случаев а некоторые в 90 100 случаев В чём основная проблема Хорошие врачи работают иначе Они могут держать в голове несколько возможных вариантов и постепенно отсеивают неправильные А чат боты сразу прыгают к окончательному выводу пропуская этап тщательного рассмотрения всех вариантов Это опасно потому что можно пропустить важный диагноз на раннем этапе Современные большие языковые модели ещё НЕ ГОТОВЫ надёжно размышлять в ситуациях неопределённости а именно этим обычно и занимаются врачи каждый день Практический вывод Не стоит использовать чат ботов для самодиагностики Они пока что очень плохи в предварительной диагностике Вы конечно можете попасть в эти менее 20 которым правильно поставили диагноз но не стоит этот опыт применять на все другие случаи Чат ботов иногда можно использовать для объяснения уже поставленного врачом диагноза расшифровки медицинских терминов или общей информации о здоровье Но не для постановки диагноза Источник исследование в JAMA Network Open опубликовано 13 апреля 2026 года За помощь спасибо Елизавете Сергею и Александру Поблагодарить 2202 2082 6873 0372 Сбер 5536 9138 3126 6560 Тинькофф Boosty Patreon
Сноб
ИИ боты в 50 случаев выдают ложные ответы на вопросы о здоровье и медицине Учёные из США Канады и Великобритании проверили пять популярных чат ботов на 50 вопросах о здоровье от онкологии до питания В результате 49 6 ответов содержали искажения фактов Из них 30 признаны умеренно неточными а 19 содержащими значительные ошибки способные навредить здоровью Худший результат у Grok грубых ошибок больше всех лучший у Gemini При этом боты формулировали ответы с высокой уверенностью отказавшись отвечать лишь в двух случаях из 250 Отдельной проблемой стала проверка чат ботами источников информации Ни одна из систем не смогла предоставить полностью корректный список ссылок Вместо этого боты часто сами их придумывали Проверенные чат боты показали неудовлетворительные результаты при ответах на вопросы из областей здоровья и медицины подверженных распространению ложной информации Дальнейшее применение без общественного просвещения и надзора может усилить степень распространения ложной информации отметили исследователи Источник BMJ Open Фото Plann Unsplash Telegram VK MAX
Право на здоровье
Почти 50 ответов ИИ на медицинские вопросы оказались неточными Многие пользователи всё чаще обращаются к ИИ чатботам за медицинской информацией вместо врача На этом фоне журнал BMJ Open опубликовал исследование в котором оценили насколько точно самые популярные чатботы отвечают на вопросы о здоровье Авторы оценили ответы популярных чатботов включая ChatGPT Gemini Grok и DeepSeek Всего они проанализировали 250 ответов на 50 запросов по темам рака вакцин стволовых клеток питания и спортивной результативности Результаты показали что почти половина ответов оказалась неточной Около 30 исследователи отнесли к умеренно неточным ещё 19 6 к существенно неточным Отдельная проблема ссылки на источники Авторы отмечают что чатботы нередко приводили неполные неточные или вовсе несуществующие ссылки из за чего пользователю сложнее проверить информацию Как итог в вопросах здоровья ответы ИИ пока лучше воспринимать только как вспомогательную информацию а важные сведения особенно о лечении диагнозах и рисках дополнительно проверять по надёжным источникам Подписывайтесь на Право на здоровье в MAX и Тelegram
Похожие новости +8 +1 +5 +5
OpenAI анонсировала новую модель GPT 5 5 Instant для всех пользователей ChatGPT
Технологии
1 день назадРост медицинских франшиз в России на фоне стагнации рынка страхования
Экономика
1 день назадЛДПР призывает проверить систему Антиплагиат из-за ошибок ИИ
Общество
21 час назадAnthropic запускает режим Сновидений для самообучения ИИ агентов
Технологии
2 часа назадAnthropic запускает 10 ИИ агентов для оптимизации финансовых процессов
Технологии
1 день назадДженсен Хуанг: Искусственный интеллект создает рабочие места в новых отраслях
Технологии
1 день назад