25 ноября, 07:16

OpenAI инвестирует в исследование морали ИИ с грантом в $1 миллион

RevВолны
RevВолны
​​OpenAI финансирует исследования «морали ИИ» OpenAI предоставляет грант в размере $1 миллиона исследователям из университета Дьюка для работы над проектом «Исследование ИИ морали», который завершится в 2025 году. Целью проекта является разработка "морального ИИ", способного предсказывать человеческие моральные суждения в различных областях, таких как медицина, право и бизнес. Тем не менее, эксперты отрасли сомневаются в способности существующих технологий адекватно улавливать нюансы морали, поскольку AI обучается на больших объемах данных и не понимает этические концепции, а также подвержен предвзятости.
OpenAI инвестирует в "моральный ИИ"!   OpenAI финансирует исследования в области "морали искусственного интеллекта". Они выделили грант Университету Дьюка для проекта «Исследование морали ИИ» на сумму 1 миллион долларов.    Что именно исследуется? Цель проекта — разработать алгоритмы, способные предсказывать моральные суждения людей в сложных ситуациях, таких как медицина, юриспруденция и бизнес.  Главный исследователь Уолтер Синнотт-Армстронг отмечает, что работа находится на начальной стадии, и подробности пока не раскрываются.  Однако, создание "морального GPS" для ИИ — задача не из легких. Исторически, системы ИИ сталкиваются с трудностями в понимании этических концепций и могут перенимать предвзятости из обучающих данных.     Почему это важно? Разработка алгоритма, который учитывает разнообразие моральных взглядов и этических теорий, является сложной задачей.  OpenAI и исследователи, которых она поддерживает, стоят перед вызовом создать универсальную систему, способную учитывать все эти нюансы.
GPT-Чатбот
GPT-Чатбот
OpenAI инвестирует в "моральный ИИ"! OpenAI финансирует исследования в области "морали искусственного интеллекта". Они выделили грант Университету Дьюка для проекта «Исследование морали ИИ» на сумму 1 миллион долларов. Что именно исследуется? Цель проекта — разработать алгоритмы, способные предсказывать моральные суждения людей в сложных ситуациях, таких как медицина, юриспруденция и бизнес. Главный исследователь Уолтер Синнотт-Армстронг отмечает, что работа находится на начальной стадии, и подробности пока не раскрываются. Однако, создание "морального GPS" для ИИ — задача не из легких. Исторически, системы ИИ сталкиваются с трудностями в понимании этических концепций и могут перенимать предвзятости из обучающих данных. Почему это важно? Разработка алгоритма, который учитывает разнообразие моральных взглядов и этических теорий, является сложной задачей. OpenAI и исследователи, которых она поддерживает, стоят перед вызовом создать универсальную систему, способную учитывать все эти нюансы.
🔥 Акция для пользователей Tek.fm

            *Нажми тут
Tek.fm
Tek.fm
🔥 Акция для пользователей Tek.fm *Нажми тут
OpenAI финансирует проект по исследованию морали в системах ИИ  OpenAI выделила грант исследователям из Дьюкского университета на проект по исследованию морали в системах искусственного интеллекта, пишет TechCrunch со ссылкой на отчёт компании для Налоговой службы США.   Проект «Исследование нравственности ИИ»  Research AI Morality  стал частью более широкой инициативы, в рамках которой OpenAI выделила $1 млн на изучение способов сделать ИИ морально сознательным в течение трёх лет.  1   DevHub Community
DevHub Community
DevHub Community
OpenAI финансирует проект по исследованию морали в системах ИИ OpenAI выделила грант исследователям из Дьюкского университета на проект по исследованию морали в системах искусственного интеллекта, пишет TechCrunch со ссылкой на отчёт компании для Налоговой службы США. Проект «Исследование нравственности ИИ» Research AI Morality стал частью более широкой инициативы, в рамках которой OpenAI выделила $1 млн на изучение способов сделать ИИ морально сознательным в течение трёх лет. 1 DevHub Community