19 сентября, 16:45
Исследование выявило предвзятость ИИ в медицине по отношению к женщинам и этническим меньшинствам


ВестиFM+
FT ИИ может недооценивать симптомы заболеваний у женщин и у этнических меньшинств Это тревожно потому что врачи используют искусственный интелллект в работе чтобы быстрее заполнить медицинские карты и выделить главное из жалоб пациента Ученые Массачусетского технологического института проанализировала несколько чат ботов и ИИ в том числе GPT 4 и Palmyra Med Выяснилось что женщинам чернокожим и выходцам из Азии чат боты чаще предлагали самолечение Ученые из Лондонской школы экономики пришли к схожему выводу проанализировав ИИ модель Gemma от Google её используют в Великобритании Она тоже недооценивала физические и психические проблемы у женщин при составлении и обобщении историй болезни
Наука52 дня назад


QWERTY
Расизм и дискриминация по половому признаку от медицинского ИИ Исследования показали что большие языковые модели такие как GPT 4 Llama 3 и другие склонны недооценивать серьёзность симптомов у пациентов женщин Кроме того их ответы демонстрируют меньше сопереживания при обращении чернокожих и азиатских пациентов с психическими проблемами Проблема частично возникает из за данных на которых обучают ИИ Общедоступные модели тренируются на информации из интернета которая может содержать предвзятость Это рискует усилить существующее в здравоохранении неравенство в качестве лечения Учёные предлагают обучать медицинский ИИ на специализированных и репрезентативных наборах медицинских данных а не на общедоступных интернет источниках Это поможет снизить риски и сделать рекомендации более справедливыми
Наука48 дней назад


Кровавая барыня
Инструменты на основе ИИ внедряемые в медицину преуменьшают симптомы заболеваний у женщин азиатов и чернокожих Массачусетский технологический институт Технологии новые дискриминация классическая Так новое исследование специалистов из США показало языковые модели ИИ ориентированные на здравоохранение предвзято относятся к женщинам Они часто рекомендуют более низкий уровень медпомощи либо вовсе советуют заняться самолечением Схожим образом модели ведут себя по отношению к чернокожим и азиатам обращающимся за помощью при проблемах с психическим здоровьем Ещё один фактор влияющий на отзывчивость ИИ грамотность Исследования показали что чат боты на 7 9 чаще рекомендуют не обращаться за медпомощью если в запросе были ошибки или неточные формулировки При этом на аналогичные по смыслу но более грамотные система реагирует правильно и дает необходимые советы По мнению специалистов это может привести к дискриминации по отношению к людям для которых английский не является родным языком а также к тем кто испытывает сложности при использовании современных технологий например к пожилым По мнению специалистов происходит это в том числе из за методов обучения ИИ анализируя открытые данные в интернете модели впитывают проявления расизма и предубеждений
Наука52 дня назад
Похожие новости



+3



+2












+6

Microsoft запускает команду для разработки медицинского суперинтеллекта
Технологии
18 часов назад


+3
Эксперты предупреждают о социальных рисках ИИ: возможна массовая потеря рабочих мест
Технологии
15 часов назад


+2
Использование ИИ в знакомствах: программист из Москвы находит невесту с помощью бота
Технологии
1 день назад


Российские исследователи представили новый метод обучения ИИ для улучшения логического рассуждения
Общество
15 часов назад



Учителя обеспокоены влиянием нейросетей на обучение школьников
Общество
18 часов назад

Японка вышла замуж за ChatGPT, превратив его в аниме-персонажа
Шоу бизнес
15 часов назад


+6