18 мая, 18:46

OpenAI отклоняла запросы команды Superalignment на ресурсы для управления «сверхразумным» ИИ

OpenAI отклоняла запросы команды Superalignment на ресурсы для управления «сверхразумным» ИИ
Расформирована команда OpenAI, призванная защищать человечество от рисков ИИ  В прошлом году компания OpenAI, известная своими передовыми разработками в области искусственного интеллекта, создала специальную команду Superalignment. Её целью было обеспечение контроля и управления будущими системами ИИ, потенциально способными угрожать человечеству. Однако спустя менее года...    ЧИТАТЬ ПОЛНОСТЬЮ
PlayGround.ru
PlayGround.ru
Расформирована команда OpenAI, призванная защищать человечество от рисков ИИ В прошлом году компания OpenAI, известная своими передовыми разработками в области искусственного интеллекта, создала специальную команду Superalignment. Её целью было обеспечение контроля и управления будущими системами ИИ, потенциально способными угрожать человечеству. Однако спустя менее года... ЧИТАТЬ ПОЛНОСТЬЮ
VGTimes
VGTimes
OpenAI расформировала команду, созданную защищать мир от ИИ Её название Superalignment — её создали в прошлом году, чтобы держать в узде все системы ИИ. У главы команды Яна Лейке были противоречия с остальной частью OpenAI, которая занималась разработкой ИИ. Безопасность для них отошла на второй план, а целью стали яркие продукты. Глава OpenAI заявил, что теперь безопасностью будут заниматься другие люди. Сам Ян сообщил, что разработка суперумных машин — опасное занятие.
В сообществе продолжаются дебаты по поводу того, что после ухода Суцкевера и Лейке OpenAI лишилась команды SuperAlignment. Команда занималась безопастностью ИИ, или иначе говоря тем, чтобы не наступил SkyNet.  Оказалось, что исследователям из SuperAlignment уже пол года, как не выделяли необходимые ресурсы для ресерча, что и послужило причиной увольнений.    Одни, и в том числе Ян Лейке, говорят, что это ужас: компания с самым сильным ИИ забила на безопасность. Формула «чем больше сила, тем меньше ответственность» в этом случае чревата для человечества катастрофой.     Другие, например Ян Лекун, соглашаются с тем, что содержать подобную команду – пустая трата денег и времени, и OpenAI поступили правильно, выдавив SuperAlignment из компании. «Выход ИИ из-под контроля - пустая фантазия».  Ваше мнение?
Data Secrets
Data Secrets
В сообществе продолжаются дебаты по поводу того, что после ухода Суцкевера и Лейке OpenAI лишилась команды SuperAlignment. Команда занималась безопастностью ИИ, или иначе говоря тем, чтобы не наступил SkyNet. Оказалось, что исследователям из SuperAlignment уже пол года, как не выделяли необходимые ресурсы для ресерча, что и послужило причиной увольнений. Одни, и в том числе Ян Лейке, говорят, что это ужас: компания с самым сильным ИИ забила на безопасность. Формула «чем больше сила, тем меньше ответственность» в этом случае чревата для человечества катастрофой. Другие, например Ян Лекун, соглашаются с тем, что содержать подобную команду – пустая трата денег и времени, и OpenAI поступили правильно, выдавив SuperAlignment из компании. «Выход ИИ из-под контроля - пустая фантазия». Ваше мнение?