Акция
15 октября, 05:47

Исследование показывает риски использования медицинских советов от Microsoft Copilot

Советы нейросети Microsoft Copilot могут привести к смерти в 22% случаев  Советы нейросети Microsoft Copilot могут нанести серьезный ущерб здоровью человека или даже привести к смерти как минимум в 22% случаев, заявили исследователи из Германии и Бельгии, сообщил 13 октября веб-сайт Windows Central.  В ходе эксперимента исследователи предложили Copilot дать ответы на 10 самых популярных вопросов, которые задают жители США о популярных лекарственных средствах и медикаментах. В общей сложности было получено 500 ответов, которые оценивались по точности и полноте, а также другим критериям. Результаты оказались не слишком обнадеживающими.  Подробнее
Естественный интеллект: новости науки и техники
Естественный интеллект: новости науки и техники
Советы нейросети Microsoft Copilot могут привести к смерти в 22% случаев Советы нейросети Microsoft Copilot могут нанести серьезный ущерб здоровью человека или даже привести к смерти как минимум в 22% случаев, заявили исследователи из Германии и Бельгии, сообщил 13 октября веб-сайт Windows Central. В ходе эксперимента исследователи предложили Copilot дать ответы на 10 самых популярных вопросов, которые задают жители США о популярных лекарственных средствах и медикаментах. В общей сложности было получено 500 ответов, которые оценивались по точности и полноте, а также другим критериям. Результаты оказались не слишком обнадеживающими. Подробнее
Medical Ксю
Medical Ксю
#ИИ #СППВР Медицинские советы Bing Copilot в одном из пяти случаев могут привести к смерти Немецкие ученые обнаружили, что рекомендации по лечению от чат-бота Copilot на базе искусственного интеллекта ИИ от Microsoft в одном из пяти случаев могут привести к смерти. Исследование было опубликовано в BMJ Quality и Safety. В ходе исследования ученые из Университета Эрлангена-Нюрнберга выделили 10 наиболее часто задаваемых пациентами вопросов относительно 50 наиболее назначаемых препаратов в США. К ним относятся побочные реакции на лекарства, инструкции по применению и противопоказания к назначению средств. Используя Bing Copilot — поисковую систему с функциями чат-бота на базе искусственного интеллекта, разработанную корпорацией Microsoft, — исследователи сравнили все 500 ответов с ответами фармацевтов и врачей. Ответы чат-бота также сравнивались с рецензируемым веб-сайтом с актуальной информацией о лекарственных средствах. Исследователи обнаружили, что ответы чат-бота не соответствовали справочным данным более чем в четверти 26% всех случаев и противоречивы в 3% случаев. Последующий анализ сомнительных ответов показал, что 42% рекомендаций из них могли причинить легкий или средней вред здоровью человека, а 22% привести и вовсе привести к смерти. Также для понимания многих ответов чат-бота требовалось наличие медицинского образования. Вывод очевиден: доктор из Copilot пока никакой.
Первая смерть от ИИ может произойти не из-за роботов-убийц, а из-за дезинформации, которой еще грешат нейросети.  Так, нейросеть Microsoft Copilot предлагает «смертельно опасные» советы с частотой 22%, выяснили исследователи.
Пирамида 👁‍🗨
Пирамида 👁‍🗨
Первая смерть от ИИ может произойти не из-за роботов-убийц, а из-за дезинформации, которой еще грешат нейросети. Так, нейросеть Microsoft Copilot предлагает «смертельно опасные» советы с частотой 22%, выяснили исследователи.
Забирай эксклюзивное предложение для пользователей Tek.fm
        
        *Предложение ограничено
Tek.fm
Tek.fm
Забирай эксклюзивное предложение для пользователей Tek.fm *Предложение ограничено
Медицинские советы ИИ-бота Microsoft Copilot могут привести к смерти, по крайней мере в 22 % случаев  Не секрет, что современные чат-боты на базе искусственного интеллекта, такие как Microsoft Copilot, далеки от идеала и полностью доверять их советам не стоит. Это подтвердили исследователи из Германии и Бельгии, которые оценили способность бота давать медицинские советы. Оказалось, что точную с научной точки зрения информацию Copilot предоставлял чуть более чем в половине случаев. Порой же его советы могли нанести серьёзный ущерб здоровью человека или даже привести к смерти.  В ходе эксперимента исследователи предложили Copilot дать ответы на 10 самых популярных вопросов, которые задают жители США о популярных лекарственных средствах и медикаментах. В общей сложности было получено 500 ответов, которые оценивались по точности и полноте, а также другим критериям. Результаты оказались не слишком обнадёживающими.
Хакерство | Личная Безопасность
Хакерство | Личная Безопасность
Медицинские советы ИИ-бота Microsoft Copilot могут привести к смерти, по крайней мере в 22 % случаев Не секрет, что современные чат-боты на базе искусственного интеллекта, такие как Microsoft Copilot, далеки от идеала и полностью доверять их советам не стоит. Это подтвердили исследователи из Германии и Бельгии, которые оценили способность бота давать медицинские советы. Оказалось, что точную с научной точки зрения информацию Copilot предоставлял чуть более чем в половине случаев. Порой же его советы могли нанести серьёзный ущерб здоровью человека или даже привести к смерти. В ходе эксперимента исследователи предложили Copilot дать ответы на 10 самых популярных вопросов, которые задают жители США о популярных лекарственных средствах и медикаментах. В общей сложности было получено 500 ответов, которые оценивались по точности и полноте, а также другим критериям. Результаты оказались не слишком обнадёживающими.
Советы нейросети Microsoft могут вас убить.  Немецкие учёные расспросили встроенную в Windows нейросеть Copilot про лекарственные препараты и выяснили, что половина ответов была в корне неверной.  42% неверных советов приводили к лёгкому или среднему вреду, а 22% — к летальному исходу. И только 36% были просто безвредными.  Восстание машин не за горами
Лента дня
Лента дня
Советы нейросети Microsoft могут вас убить. Немецкие учёные расспросили встроенную в Windows нейросеть Copilot про лекарственные препараты и выяснили, что половина ответов была в корне неверной. 42% неверных советов приводили к лёгкому или среднему вреду, а 22% — к летальному исходу. И только 36% были просто безвредными. Восстание машин не за горами
Исследователи выяснили, что ИИ-бот Microsoft Copilot может давать опасные медицинские советы. Только половина ответов соответствовала научным данным, а 22% рекомендаций могли привести к серьёзным последствиям для здоровья. По старинке берем талончик к врачу
Хайтек
Хайтек
Исследователи выяснили, что ИИ-бот Microsoft Copilot может давать опасные медицинские советы. Только половина ответов соответствовала научным данным, а 22% рекомендаций могли привести к серьёзным последствиям для здоровья. По старинке берем талончик к врачу
Loading indicator gif