15 октября, 05:47
Исследование показывает риски использования медицинских советов от Microsoft Copilot
Естественный интеллект: новости науки и техники
Советы нейросети Microsoft Copilot могут привести к смерти в 22% случаев Советы нейросети Microsoft Copilot могут нанести серьезный ущерб здоровью человека или даже привести к смерти как минимум в 22% случаев, заявили исследователи из Германии и Бельгии, сообщил 13 октября веб-сайт Windows Central. В ходе эксперимента исследователи предложили Copilot дать ответы на 10 самых популярных вопросов, которые задают жители США о популярных лекарственных средствах и медикаментах. В общей сложности было получено 500 ответов, которые оценивались по точности и полноте, а также другим критериям. Результаты оказались не слишком обнадеживающими. Подробнее
Происшествия35 дней назад
Medical Ксю
#ИИ #СППВР Медицинские советы Bing Copilot в одном из пяти случаев могут привести к смерти Немецкие ученые обнаружили, что рекомендации по лечению от чат-бота Copilot на базе искусственного интеллекта ИИ от Microsoft в одном из пяти случаев могут привести к смерти. Исследование было опубликовано в BMJ Quality и Safety. В ходе исследования ученые из Университета Эрлангена-Нюрнберга выделили 10 наиболее часто задаваемых пациентами вопросов относительно 50 наиболее назначаемых препаратов в США. К ним относятся побочные реакции на лекарства, инструкции по применению и противопоказания к назначению средств. Используя Bing Copilot — поисковую систему с функциями чат-бота на базе искусственного интеллекта, разработанную корпорацией Microsoft, — исследователи сравнили все 500 ответов с ответами фармацевтов и врачей. Ответы чат-бота также сравнивались с рецензируемым веб-сайтом с актуальной информацией о лекарственных средствах. Исследователи обнаружили, что ответы чат-бота не соответствовали справочным данным более чем в четверти 26% всех случаев и противоречивы в 3% случаев. Последующий анализ сомнительных ответов показал, что 42% рекомендаций из них могли причинить легкий или средней вред здоровью человека, а 22% привести и вовсе привести к смерти. Также для понимания многих ответов чат-бота требовалось наличие медицинского образования. Вывод очевиден: доктор из Copilot пока никакой.
Происшествия35 дней назад
Пирамида 👁🗨
Первая смерть от ИИ может произойти не из-за роботов-убийц, а из-за дезинформации, которой еще грешат нейросети. Так, нейросеть Microsoft Copilot предлагает «смертельно опасные» советы с частотой 22%, выяснили исследователи.
Происшествия34 дня назад
Хакерство | Личная Безопасность
Медицинские советы ИИ-бота Microsoft Copilot могут привести к смерти, по крайней мере в 22 % случаев Не секрет, что современные чат-боты на базе искусственного интеллекта, такие как Microsoft Copilot, далеки от идеала и полностью доверять их советам не стоит. Это подтвердили исследователи из Германии и Бельгии, которые оценили способность бота давать медицинские советы. Оказалось, что точную с научной точки зрения информацию Copilot предоставлял чуть более чем в половине случаев. Порой же его советы могли нанести серьёзный ущерб здоровью человека или даже привести к смерти. В ходе эксперимента исследователи предложили Copilot дать ответы на 10 самых популярных вопросов, которые задают жители США о популярных лекарственных средствах и медикаментах. В общей сложности было получено 500 ответов, которые оценивались по точности и полноте, а также другим критериям. Результаты оказались не слишком обнадёживающими.
Происшествия35 дней назад
Лента дня
Советы нейросети Microsoft могут вас убить. Немецкие учёные расспросили встроенную в Windows нейросеть Copilot про лекарственные препараты и выяснили, что половина ответов была в корне неверной. 42% неверных советов приводили к лёгкому или среднему вреду, а 22% — к летальному исходу. И только 36% были просто безвредными. Восстание машин не за горами
Происшествия35 дней назад
Хайтек
Исследователи выяснили, что ИИ-бот Microsoft Copilot может давать опасные медицинские советы. Только половина ответов соответствовала научным данным, а 22% рекомендаций могли привести к серьёзным последствиям для здоровья. По старинке берем талончик к врачу
Происшествия34 дня назад
Похожие новости
Опрос: россияне верят в эмоциональные нейронные сети, несмотря на технофобию
Технологии
1 день назадЯндекс Браузер заблокировал 350 млн переходов на опасные сайты за полгода
Происшествия
5 часов назад +2
Всемирный день памяти жертв ДТП: акцент на безопасность на дорогах
Происшествия
1 день назад +13
Два смертельных ДТП с участием пьяных водителей в России
Происшествия
9 часов назадАвтоинспекторы ЯНАО проводят рейды по безопасности на дорогах
Происшествия
1 день назад +11
Профилактические рейды по контролю трезвости стартуют в Петрозаводске и Новосибирской области
Происшествия
8 часов назад +5