19 сентября, 16:45

Исследование выявило предвзятость ИИ в медицине по отношению к женщинам и этническим меньшинствам

FT ИИ может недооценивать симптомы заболеваний у женщин и у этнических меньшинств Это тревожно потому что врачи используют искусственный интелллект в работе чтобы быстрее заполнить медицинские карты и выделить главное из жалоб пациента Ученые Массачусетского технологического института проанализировала несколько чат ботов и ИИ в том числе GPT 4 и Palmyra Med Выяснилось что женщинам чернокожим и выходцам из Азии чат боты чаще предлагали самолечение Ученые из Лондонской школы экономики пришли к схожему выводу проанализировав ИИ модель Gemma от Google её используют в Великобритании Она тоже недооценивала физические и психические проблемы у женщин при составлении и обобщении историй болезни
ВестиFM+
ВестиFM+
FT ИИ может недооценивать симптомы заболеваний у женщин и у этнических меньшинств Это тревожно потому что врачи используют искусственный интелллект в работе чтобы быстрее заполнить медицинские карты и выделить главное из жалоб пациента Ученые Массачусетского технологического института проанализировала несколько чат ботов и ИИ в том числе GPT 4 и Palmyra Med Выяснилось что женщинам чернокожим и выходцам из Азии чат боты чаще предлагали самолечение Ученые из Лондонской школы экономики пришли к схожему выводу проанализировав ИИ модель Gemma от Google её используют в Великобритании Она тоже недооценивала физические и психические проблемы у женщин при составлении и обобщении историй болезни
Инструменты на основе ИИ внедряемые в медицину преуменьшают симптомы заболеваний у женщин азиатов и чернокожих Массачусетский технологический институт Технологии новые дискриминация классическая Так новое исследование специалистов из США показало языковые модели ИИ ориентированные на здравоохранение предвзято относятся к женщинам Они часто рекомендуют более низкий уровень медпомощи либо вовсе советуют заняться самолечением Схожим образом модели ведут себя по отношению к чернокожим и азиатам обращающимся за помощью при проблемах с психическим здоровьем Ещё один фактор влияющий на отзывчивость ИИ грамотность Исследования показали что чат боты на 7 9 чаще рекомендуют не обращаться за медпомощью если в запросе были ошибки или неточные формулировки При этом на аналогичные по смыслу но более грамотные система реагирует правильно и дает необходимые советы По мнению специалистов это может привести к дискриминации по отношению к людям для которых английский не является родным языком а также к тем кто испытывает сложности при использовании современных технологий например к пожилым По мнению специалистов происходит это в том числе из за методов обучения ИИ анализируя открытые данные в интернете модели впитывают проявления расизма и предубеждений
Кровавая барыня
Кровавая барыня
Инструменты на основе ИИ внедряемые в медицину преуменьшают симптомы заболеваний у женщин азиатов и чернокожих Массачусетский технологический институт Технологии новые дискриминация классическая Так новое исследование специалистов из США показало языковые модели ИИ ориентированные на здравоохранение предвзято относятся к женщинам Они часто рекомендуют более низкий уровень медпомощи либо вовсе советуют заняться самолечением Схожим образом модели ведут себя по отношению к чернокожим и азиатам обращающимся за помощью при проблемах с психическим здоровьем Ещё один фактор влияющий на отзывчивость ИИ грамотность Исследования показали что чат боты на 7 9 чаще рекомендуют не обращаться за медпомощью если в запросе были ошибки или неточные формулировки При этом на аналогичные по смыслу но более грамотные система реагирует правильно и дает необходимые советы По мнению специалистов это может привести к дискриминации по отношению к людям для которых английский не является родным языком а также к тем кто испытывает сложности при использовании современных технологий например к пожилым По мнению специалистов происходит это в том числе из за методов обучения ИИ анализируя открытые данные в интернете модели впитывают проявления расизма и предубеждений