

Время госзакупок
Рабочая группа в Госдуме по регулированию ИИ предложила ввести классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Инициатива предполагает запрет на разработку и эксплуатацию систем ИИ с неприемлемым уровнем риска, создающих угрозу безопасности личности, общества и государства и нарушающих основополагающие права и свободы человека и гражданина — РБК.
Происшествия3 дня назад


CIO: канал IT руководителей
В России предложили ввести запрет ИИ с «угрожающим уровнем риска» // РБК Профильная рабочая группа из юристов, представителей консалтинговых компаний и участников рынка, развивающих ИИ, разработала законопроект регулирования ИИ в России. В частности, законопроект предлагает создать классификацию систем ИИ по уровню потенциального риска — «с неприемлемым, высоким, ограниченным и минимальным уровнем риска». Авторы инициативы предлагают запретить в стране «разработку и эксплуатацию систем ИИ, относящихся к категории с неприемлемым уровнем риска, то есть создающих угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина». Системы с высоким уровнем риска применяют в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах. В этом случае предлагается введение обязательной госрегистрации и сертификации. При ограниченном уровне риска необходимы системы внутреннего контроля качества и добровольная сертификация, указано в документе. Также законопроект предусматривает введение требований к маркировке систем ИИ. Она должна быть «явной, недвусмысленной и легко идентифицируемой». Исключение — ИИ «в закрытых технологических процессах, для внутренней автоматизации организаций» и некоторых других.
Происшествия3 дня назад


Двоичный кот
В Госдуме хотят запретить "опасный" ИИ Вот только, какой ИИ опасный, а какой нет, тоже будет определять в правительстве Набросок того, как будут выглядеть основные правила ниже: — Запрещается создание и использование «неприемлемых» по риску систем, угрожающих безопасности личности, общества и государства, и нарушающих основополагающие права и свободы человека и гражданина. — Для «высокого» уровня риска будут обязательны госрегистрация и сертификация. — Не только продукция ИИ, но и каждое его взаимодействие с пользователем предлагается маркировать. — Для лиц, «участвующих в разработке и эксплуатации систем ИИ», вводится ответственность за причинение вреда жизни, здоровью или имуществу.
Происшествия3 дня назад



Крем
Угрожающий государству ИИ хотят запретить в России Предлагается разделить системы ИИ на группы по уровню рисков: минимальному, ограниченному, высокому и неприемлемому. Авторы проекта считают, что нужно запретить разработку и эксплуатацию нейросетей с неприемлемым уровнем риска. Такие системы создают «угрозу безопасности личности, общества и государства», указано в проекте закона.
Происшествия3 дня назад

Inс. Russia
В России могут запретить ИИ-систем с «неприемлемым уровнем риска» Профильная рабочая группа разработала законопроект о регулировании искусственного интеллекта ИИ в России, сообщает РБК со ссылкой на источники и документ. В нем предложено ввести классификацию систем ИИ по уровню риска — технологии с «неприемлемым уровнем риска» предлагается запретить. Кроме того, в законопроекте выделены системы ИИ с: высоким уровнем риска применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан , которые будут подлежать обязательной госрегистрации и сертификации; ограниченным уровнем риска, в отношении которых будет введен механизм внутреннего контроля качества и добровольная сертификация; минимальным уровнем риска. Также предлагается ввести обязательную маркировку всех ИИ-систем — специальное обозначение, информирующее пользователей о взаимодействии с ИИ. Кроме того, документ вводит ответственность для разработчиков и операторов ИИ за возможный вред, причинённый жизни, здоровью или имуществу. Если закон примут, участники рынка должны будут привести свои системы в соответствие в течение года. Для уже работающих ИИ-систем предусмотрен переходный период — два года на прохождение сертификации. Читайте Инк. в Telegram
Происшествия3 дня назад


ФедералПресс. Новости
«Данные должны соответствовать интересам государства»: как в России готовятся регулировать ИИ ИИ уже проникает во все сферы жизни – от медиапроизводства до здравоохранения. Но чем больше он умеет, тем выше тревожность: не потеряет ли человек контроль над машиной? В России начали разрабатывать закон, который должен удержать ИИ в безопасных границах. Подробнее
Происшествия3 дня назад
Похожие новости



+3



+23



+3







+12



+3

Более половины россиян против использования ИИ в управлении и правосудии
Общество
16 часов назад




Китай предлагает глобальную систему управления ИИ, заявил посол в России
Общество
22 часа назад




Россияне выражают тревогу по поводу угроз от технологий, но принимают меры безопасности
Наука
7 часов назад




Правительство РФ реорганизует подход к технологическому прогрессу
Общество
10 часов назад




В Татарстане предложили запретить детям до 14 лет пользоваться соцсетями
Происшествия
1 день назад




Эксперт назвала топ-5 киберугроз начала 2025 года
Технологии
12 часов назад


