12 апреля, 03:28

В России предложено регулирование ИИ с классификацией по уровням риска

Рабочая группа в Госдуме по регулированию ИИ предложила ввести классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Инициатива предполагает запрет на разработку и эксплуатацию систем ИИ с неприемлемым уровнем риска, создающих угрозу безопасности личности, общества и государства и нарушающих основополагающие права и свободы человека и гражданина — РБК.
Время госзакупок
Время госзакупок
Рабочая группа в Госдуме по регулированию ИИ предложила ввести классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Инициатива предполагает запрет на разработку и эксплуатацию систем ИИ с неприемлемым уровнем риска, создающих угрозу безопасности личности, общества и государства и нарушающих основополагающие права и свободы человека и гражданина — РБК.
В России предложили ввести запрет ИИ с «угрожающим уровнем риска» // РБК  Профильная рабочая группа из юристов, представителей консалтинговых компаний и участников рынка, развивающих ИИ, разработала законопроект регулирования ИИ в России.  В частности, законопроект предлагает создать классификацию систем ИИ по уровню потенциального риска — «с неприемлемым, высоким, ограниченным и минимальным уровнем риска».   Авторы инициативы предлагают запретить в стране «разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина».  Системы с высоким уровнем риска применяют в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах. В этом случае предлагается введение обязательной госрегистрации и сертификации. При ограниченном уровне риска необходимы системы внутреннего контроля качества и добровольная сертификация, указано в документе.  Также законопроект предусматривает введение требований к маркировке систем ИИ. Она должна быть «явной, недвусмысленной и легко идентифицируемой». Исключение — ИИ «в закрытых технологических процессах, для внутренней автоматизации организаций» и некоторых других.
CIO: канал IT руководителей
CIO: канал IT руководителей
В России предложили ввести запрет ИИ с «угрожающим уровнем риска» // РБК Профильная рабочая группа из юристов, представителей консалтинговых компаний и участников рынка, развивающих ИИ, разработала законопроект регулирования ИИ в России. В частности, законопроект предлагает создать классификацию систем ИИ по уровню потенциального риска — «с неприемлемым, высоким, ограниченным и минимальным уровнем риска». Авторы инициативы предлагают запретить в стране «разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина». Системы с высоким уровнем риска применяют в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах. В этом случае предлагается введение обязательной госрегистрации и сертификации. При ограниченном уровне риска необходимы системы внутреннего контроля качества и добровольная сертификация, указано в документе. Также законопроект предусматривает введение требований к маркировке систем ИИ. Она должна быть «явной, недвусмысленной и легко идентифицируемой». Исключение — ИИ «в закрытых технологических процессах, для внутренней автоматизации организаций» и некоторых других.
В Госдуме хотят запретить "опасный" ИИ  Вот только, какой ИИ опасный, а какой нет, тоже будет определять в правительстве    Набросок того, как будут выглядеть основные правила ниже:  — Запрещается создание и использование «неприемлемых» по риску систем, угрожающих безопасности личности, общества и государства, и нарушающих основополагающие права и свободы человека и гражданина.   — Для «высокого» уровня риска будут обязательны госрегистрация и сертификация.  — Не только продукция ИИ, но и каждое его взаимодействие с пользователем предлагается маркировать.   — Для лиц, «участвующих в разработке и эксплуатации систем ИИ», вводится ответственность за причинение вреда жизни, здоровью или имуществу.
Двоичный кот
Двоичный кот
В Госдуме хотят запретить "опасный" ИИ Вот только, какой ИИ опасный, а какой нет, тоже будет определять в правительстве Набросок того, как будут выглядеть основные правила ниже: — Запрещается создание и использование «неприемлемых» по риску систем, угрожающих безопасности личности, общества и государства, и нарушающих основополагающие права и свободы человека и гражданина. — Для «высокого» уровня риска будут обязательны госрегистрация и сертификация. — Не только продукция ИИ, но и каждое его взаимодействие с пользователем предлагается маркировать. — Для лиц, «участвующих в разработке и эксплуатации систем ИИ», вводится ответственность за причинение вреда жизни, здоровью или имуществу.
Умный помощник, который всегда под рукой
1chatgpt.ru
1chatgpt.ru
Умный помощник, который всегда под рукой
Угрожающий государству ИИ хотят запретить в России  Предлагается разделить системы ИИ на группы по уровню рисков: минимальному, ограниченному, высокому и неприемлемому.   Авторы проекта считают, что нужно запретить разработку и эксплуатацию нейросетей с неприемлемым уровнем риска.   Такие системы создают «угрозу безопасности личности, общества и государства», указано в проекте закона.
Крем
Крем
Угрожающий государству ИИ хотят запретить в России Предлагается разделить системы ИИ на группы по уровню рисков: минимальному, ограниченному, высокому и неприемлемому. Авторы проекта считают, что нужно запретить разработку и эксплуатацию нейросетей с неприемлемым уровнем риска. Такие системы создают «угрозу безопасности личности, общества и государства», указано в проекте закона.
Inс. Russia
Inс. Russia
В России могут запретить ИИ-систем с «неприемлемым уровнем риска» Профильная рабочая группа разработала законопроект о регулировании искусственного интеллекта ИИ в России, сообщает РБК со ссылкой на источники и документ. В нем предложено ввести классификацию систем ИИ по уровню риска — технологии с «неприемлемым уровнем риска» предлагается запретить. Кроме того, в законопроекте выделены системы ИИ с: высоким уровнем риска применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан , которые будут подлежать обязательной госрегистрации и сертификации; ограниченным уровнем риска, в отношении которых будет введен механизм внутреннего контроля качества и добровольная сертификация; минимальным уровнем риска. Также предлагается ввести обязательную маркировку всех ИИ-систем — специальное обозначение, информирующее пользователей о взаимодействии с ИИ. Кроме того, документ вводит ответственность для разработчиков и операторов ИИ за возможный вред, причинённый жизни, здоровью или имуществу. Если закон примут, участники рынка должны будут привести свои системы в соответствие в течение года. Для уже работающих ИИ-систем предусмотрен переходный период — два года на прохождение сертификации. Читайте Инк. в Telegram
«Данные должны соответствовать интересам государства»: как в России готовятся регулировать ИИ         ИИ уже проникает во все сферы жизни – от медиапроизводства до здравоохранения. Но чем больше он умеет, тем выше тревожность: не потеряет ли человек контроль над машиной? В России начали разрабатывать закон, который должен удержать ИИ в безопасных границах.  Подробнее
ФедералПресс. Новости
ФедералПресс. Новости
«Данные должны соответствовать интересам государства»: как в России готовятся регулировать ИИ ИИ уже проникает во все сферы жизни – от медиапроизводства до здравоохранения. Но чем больше он умеет, тем выше тревожность: не потеряет ли человек контроль над машиной? В России начали разрабатывать закон, который должен удержать ИИ в безопасных границах. Подробнее