21 сентября, 11:05

Проблемы предвзятости ИИ в медицине: эксперты призывают к улучшению данных

Unlim AI
Unlim AI
У медицинского ИИ обнаружилась склонность к дискриминации Совсем недавно эксперты обратили внимание на проблемы связанные с использованием больших языковых моделей в медицине Оказалось что эти системы обученные на исторических данных всё ещё демонстрируют предвзятость в отношении женщин и представителей некоторых рас Причины кроются в недостаточном объёме данных учитывающих разнообразие пациентов Исследование от Financial Times подчёркивает что традиционно медицине уделялось больше внимания белым мужчинам что создало неравные условия для диагностики и рекомендаций При этом качество рекомендаций зачастую зависит от формулировок запросов ошибки в языке могут снизить точность ответов Среди основных проблем также выделяется риск утечки персональных данных и нарушения врачебной тайны что ведёт к юридическим последствиям Эксперты согласны что использование ИИ в здравоохранении обещает больше пользы однако требует более ответственного подхода к обучению и обработке данных чтобы учесть местные спецификации и предотвратить дискриминацию Источник изображения Nvidia
ИИ в медицине оказался предвзятым Эксперты выяснили что медицинские нейросети чаще дают более точные рекомендации для мужчин белой расы Причина в том что именно на их данные исторически опиралась медицина именно они легли в основу большинства наборов данных для обучения моделей OpenAI признала что в ряде проектов использовала старые версии моделей а широкий набор источников для обучения вплоть до постов с Reddit снижает точность советов В итоге женщины и представители других рас получают менее надёжные диагнозы а при неграмотном запросе система может просто отправить пользователя к врачу Проблемы с приватностью и галлюцинациями ИИ делают вопрос ещё острее но эксперты уверены правильная настройка приоритетов способна принести медицине больше пользы чем вреда Главное учить модели на качественных и локализованных данных а не на случайных кусках интернета godnoTECH Новости IT
godnoTECH - Новости IT
godnoTECH - Новости IT
ИИ в медицине оказался предвзятым Эксперты выяснили что медицинские нейросети чаще дают более точные рекомендации для мужчин белой расы Причина в том что именно на их данные исторически опиралась медицина именно они легли в основу большинства наборов данных для обучения моделей OpenAI признала что в ряде проектов использовала старые версии моделей а широкий набор источников для обучения вплоть до постов с Reddit снижает точность советов В итоге женщины и представители других рас получают менее надёжные диагнозы а при неграмотном запросе система может просто отправить пользователя к врачу Проблемы с приватностью и галлюцинациями ИИ делают вопрос ещё острее но эксперты уверены правильная настройка приоритетов способна принести медицине больше пользы чем вреда Главное учить модели на качественных и локализованных данных а не на случайных кусках интернета godnoTECH Новости IT
Оказывается использование ИИ в медицине может быть предвзятым Современные языковые модели чаще дают точные рекомендации белым мужчинам именно для этой группы исторически собиралось больше всего медицинских данных Женщины и представители других рас получают менее точные советы Проблемы возникают и из за качества данных если в обучение попадают советы непрофессионалов или неграмотно составленные запросы система может ошибаться или просто перенаправить пользователя к врачу Защита персональных данных и галлюцинации ИИ также добавляют рисков Эксперты считают что ИИ полезен но его стоит использовать там где традиционная медицина уделяет меньше внимания а не для того чтобы немного ускорить диагноз
PRO Hi-Tech
PRO Hi-Tech
Оказывается использование ИИ в медицине может быть предвзятым Современные языковые модели чаще дают точные рекомендации белым мужчинам именно для этой группы исторически собиралось больше всего медицинских данных Женщины и представители других рас получают менее точные советы Проблемы возникают и из за качества данных если в обучение попадают советы непрофессионалов или неграмотно составленные запросы система может ошибаться или просто перенаправить пользователя к врачу Защита персональных данных и галлюцинации ИИ также добавляют рисков Эксперты считают что ИИ полезен но его стоит использовать там где традиционная медицина уделяет меньше внимания а не для того чтобы немного ускорить диагноз