

Время госзакупок
Рабочая группа в Госдуме по регулированию ИИ предложила ввести классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Инициатива предполагает запрет на разработку и эксплуатацию систем ИИ с неприемлемым уровнем риска, создающих угрозу безопасности личности, общества и государства и нарушающих основополагающие права и свободы человека и гражданина — РБК.
Происшествия5 дней назад


CIO: канал IT руководителей
В России предложили ввести запрет ИИ с «угрожающим уровнем риска» // РБК Профильная рабочая группа из юристов, представителей консалтинговых компаний и участников рынка, развивающих ИИ, разработала законопроект регулирования ИИ в России. В частности, законопроект предлагает создать классификацию систем ИИ по уровню потенциального риска — «с неприемлемым, высоким, ограниченным и минимальным уровнем риска». Авторы инициативы предлагают запретить в стране «разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина». Системы с высоким уровнем риска применяют в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах. В этом случае предлагается введение обязательной госрегистрации и сертификации. При ограниченном уровне риска необходимы системы внутреннего контроля качества и добровольная сертификация, указано в документе. Также законопроект предусматривает введение требований к маркировке систем ИИ. Она должна быть «явной, недвусмысленной и легко идентифицируемой». Исключение — ИИ «в закрытых технологических процессах, для внутренней автоматизации организаций» и некоторых других.
Происшествия5 дней назад


Двоичный кот
В Госдуме хотят запретить "опасный" ИИ Вот только, какой ИИ опасный, а какой нет, тоже будет определять в правительстве Набросок того, как будут выглядеть основные правила ниже: — Запрещается создание и использование «неприемлемых» по риску систем, угрожающих безопасности личности, общества и государства, и нарушающих основополагающие права и свободы человека и гражданина. — Для «высокого» уровня риска будут обязательны госрегистрация и сертификация. — Не только продукция ИИ, но и каждое его взаимодействие с пользователем предлагается маркировать. — Для лиц, «участвующих в разработке и эксплуатации систем ИИ», вводится ответственность за причинение вреда жизни, здоровью или имуществу.
Происшествия4 дня назад



Крем
Угрожающий государству ИИ хотят запретить в России Предлагается разделить системы ИИ на группы по уровню рисков: минимальному, ограниченному, высокому и неприемлемому. Авторы проекта считают, что нужно запретить разработку и эксплуатацию нейросетей с неприемлемым уровнем риска. Такие системы создают «угрозу безопасности личности, общества и государства», указано в проекте закона.
Происшествия5 дней назад

Inс. Russia
В России могут запретить ИИ-систем с «неприемлемым уровнем риска» Профильная рабочая группа разработала законопроект о регулировании искусственного интеллекта ИИ в России, сообщает РБК со ссылкой на источники и документ. В нем предложено ввести классификацию систем ИИ по уровню риска — технологии с «неприемлемым уровнем риска» предлагается запретить. Кроме того, в законопроекте выделены системы ИИ с: высоким уровнем риска применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан , которые будут подлежать обязательной госрегистрации и сертификации; ограниченным уровнем риска, в отношении которых будет введен механизм внутреннего контроля качества и добровольная сертификация; минимальным уровнем риска. Также предлагается ввести обязательную маркировку всех ИИ-систем — специальное обозначение, информирующее пользователей о взаимодействии с ИИ. Кроме того, документ вводит ответственность для разработчиков и операторов ИИ за возможный вред, причинённый жизни, здоровью или имуществу. Если закон примут, участники рынка должны будут привести свои системы в соответствие в течение года. Для уже работающих ИИ-систем предусмотрен переходный период — два года на прохождение сертификации. Читайте Инк. в Telegram
Происшествия5 дней назад


ФедералПресс. Новости
«Данные должны соответствовать интересам государства»: как в России готовятся регулировать ИИ ИИ уже проникает во все сферы жизни – от медиапроизводства до здравоохранения. Но чем больше он умеет, тем выше тревожность: не потеряет ли человек контроль над машиной? В России начали разрабатывать закон, который должен удержать ИИ в безопасных границах. Подробнее
Происшествия5 дней назад
Похожие новости



+2



+1



+3



+5



+4



+21

Искусственный интеллект открывает новые угрозы кибербезопасности и утечки личной информации
Технологии
1 день назад




Компании активно внедряют ИИ для оптимизации бизнес-процессов
Технологии
5 часов назад




Россияне выражают тревогу по поводу угроз от технологий, но принимают меры безопасности
Наука
1 день назад




Минцифры представило методы обезличивания персональных данных для госсистемы
Политика
1 день назад




Фармассоциация предупреждает о риске нехватки лекарств из-за новых правил закупок
Политика
14 часов назад




Совфед одобрил законы о заочных судах и ужесточении контроля за иностранными агентами
Происшествия
3 часа назад


