12 апреля, 03:28

В России предложено регулирование ИИ с классификацией по уровням риска

Рабочая группа в Госдуме по регулированию ИИ предложила ввести классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Инициатива предполагает запрет на разработку и эксплуатацию систем ИИ с неприемлемым уровнем риска, создающих угрозу безопасности личности, общества и государства и нарушающих основополагающие права и свободы человека и гражданина — РБК.
Время госзакупок
Время госзакупок
Рабочая группа в Госдуме по регулированию ИИ предложила ввести классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Инициатива предполагает запрет на разработку и эксплуатацию систем ИИ с неприемлемым уровнем риска, создающих угрозу безопасности личности, общества и государства и нарушающих основополагающие права и свободы человека и гражданина — РБК.
В России предложили ввести запрет ИИ с «угрожающим уровнем риска» // РБК  Профильная рабочая группа из юристов, представителей консалтинговых компаний и участников рынка, развивающих ИИ, разработала законопроект регулирования ИИ в России.  В частности, законопроект предлагает создать классификацию систем ИИ по уровню потенциального риска — «с неприемлемым, высоким, ограниченным и минимальным уровнем риска».   Авторы инициативы предлагают запретить в стране «разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина».  Системы с высоким уровнем риска применяют в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах. В этом случае предлагается введение обязательной госрегистрации и сертификации. При ограниченном уровне риска необходимы системы внутреннего контроля качества и добровольная сертификация, указано в документе.  Также законопроект предусматривает введение требований к маркировке систем ИИ. Она должна быть «явной, недвусмысленной и легко идентифицируемой». Исключение — ИИ «в закрытых технологических процессах, для внутренней автоматизации организаций» и некоторых других.
CIO: канал IT руководителей
CIO: канал IT руководителей
В России предложили ввести запрет ИИ с «угрожающим уровнем риска» // РБК Профильная рабочая группа из юристов, представителей консалтинговых компаний и участников рынка, развивающих ИИ, разработала законопроект регулирования ИИ в России. В частности, законопроект предлагает создать классификацию систем ИИ по уровню потенциального риска — «с неприемлемым, высоким, ограниченным и минимальным уровнем риска». Авторы инициативы предлагают запретить в стране «разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина». Системы с высоким уровнем риска применяют в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах. В этом случае предлагается введение обязательной госрегистрации и сертификации. При ограниченном уровне риска необходимы системы внутреннего контроля качества и добровольная сертификация, указано в документе. Также законопроект предусматривает введение требований к маркировке систем ИИ. Она должна быть «явной, недвусмысленной и легко идентифицируемой». Исключение — ИИ «в закрытых технологических процессах, для внутренней автоматизации организаций» и некоторых других.
В Госдуме хотят запретить "опасный" ИИ  Вот только, какой ИИ опасный, а какой нет, тоже будет определять в правительстве    Набросок того, как будут выглядеть основные правила ниже:  — Запрещается создание и использование «неприемлемых» по риску систем, угрожающих безопасности личности, общества и государства, и нарушающих основополагающие права и свободы человека и гражданина.   — Для «высокого» уровня риска будут обязательны госрегистрация и сертификация.  — Не только продукция ИИ, но и каждое его взаимодействие с пользователем предлагается маркировать.   — Для лиц, «участвующих в разработке и эксплуатации систем ИИ», вводится ответственность за причинение вреда жизни, здоровью или имуществу.
Двоичный кот
Двоичный кот
В Госдуме хотят запретить "опасный" ИИ Вот только, какой ИИ опасный, а какой нет, тоже будет определять в правительстве Набросок того, как будут выглядеть основные правила ниже: — Запрещается создание и использование «неприемлемых» по риску систем, угрожающих безопасности личности, общества и государства, и нарушающих основополагающие права и свободы человека и гражданина. — Для «высокого» уровня риска будут обязательны госрегистрация и сертификация. — Не только продукция ИИ, но и каждое его взаимодействие с пользователем предлагается маркировать. — Для лиц, «участвующих в разработке и эксплуатации систем ИИ», вводится ответственность за причинение вреда жизни, здоровью или имуществу.
Спроси что угодно — умный ИИ уже готов ответить
1chatgpt.ru
1chatgpt.ru
Спроси что угодно — умный ИИ уже готов ответить
Угрожающий государству ИИ хотят запретить в России  Предлагается разделить системы ИИ на группы по уровню рисков: минимальному, ограниченному, высокому и неприемлемому.   Авторы проекта считают, что нужно запретить разработку и эксплуатацию нейросетей с неприемлемым уровнем риска.   Такие системы создают «угрозу безопасности личности, общества и государства», указано в проекте закона.
Крем
Крем
Угрожающий государству ИИ хотят запретить в России Предлагается разделить системы ИИ на группы по уровню рисков: минимальному, ограниченному, высокому и неприемлемому. Авторы проекта считают, что нужно запретить разработку и эксплуатацию нейросетей с неприемлемым уровнем риска. Такие системы создают «угрозу безопасности личности, общества и государства», указано в проекте закона.
Inс. Russia
Inс. Russia
В России могут запретить ИИ-систем с «неприемлемым уровнем риска» Профильная рабочая группа разработала законопроект о регулировании искусственного интеллекта ИИ в России, сообщает РБК со ссылкой на источники и документ. В нем предложено ввести классификацию систем ИИ по уровню риска — технологии с «неприемлемым уровнем риска» предлагается запретить. Кроме того, в законопроекте выделены системы ИИ с: высоким уровнем риска применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан , которые будут подлежать обязательной госрегистрации и сертификации; ограниченным уровнем риска, в отношении которых будет введен механизм внутреннего контроля качества и добровольная сертификация; минимальным уровнем риска. Также предлагается ввести обязательную маркировку всех ИИ-систем — специальное обозначение, информирующее пользователей о взаимодействии с ИИ. Кроме того, документ вводит ответственность для разработчиков и операторов ИИ за возможный вред, причинённый жизни, здоровью или имуществу. Если закон примут, участники рынка должны будут привести свои системы в соответствие в течение года. Для уже работающих ИИ-систем предусмотрен переходный период — два года на прохождение сертификации. Читайте Инк. в Telegram
«Данные должны соответствовать интересам государства»: как в России готовятся регулировать ИИ         ИИ уже проникает во все сферы жизни – от медиапроизводства до здравоохранения. Но чем больше он умеет, тем выше тревожность: не потеряет ли человек контроль над машиной? В России начали разрабатывать закон, который должен удержать ИИ в безопасных границах.  Подробнее
ФедералПресс. Новости
ФедералПресс. Новости
«Данные должны соответствовать интересам государства»: как в России готовятся регулировать ИИ ИИ уже проникает во все сферы жизни – от медиапроизводства до здравоохранения. Но чем больше он умеет, тем выше тревожность: не потеряет ли человек контроль над машиной? В России начали разрабатывать закон, который должен удержать ИИ в безопасных границах. Подробнее