11 апреля, 19:07

В России обсуждают маркировку контента и ответственность разработчиков ИИ

The Экономист
The Экономист
В России предложили запретить ИИ. Эксперты, депутаты и участники рынка обсуждают введение маркировки контента и определение степени ответственности разработчиков за негативные последствия от использования нейросетей с «угрожающим уровнем риска». The Экономист
investing
investing
В России рассматривают возможность запрета искусственного интеллекта. Обсуждается идея введения маркировки контента и ответственности разработчиков за потенциальные риски от использования нейросетей.
В России обсудят запрет ИИ с «угрожающим уровнем риска».     Профильная рабочая группа разработала законопроект о регулировании искусственного интеллекта. В группу входят юристы, представители консалтинговых компаний и участников рынка, развивающих ИИ. Документ обсуждали в том числе на заседаниях рабочих групп в Госдуме.      Поправки вводят, в частности, определение ИИ  «комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека» , пишет РБК.     Есть классификация по уровню возможного риска: неприемлемый, высокий, ограниченный и минимальный. К неприемлемому уровню отнесли системы, создающие угрозу безопасности личности, общества и государства, нарушающие основополагающие права и свободы человека, — их разработку и использование предлагают запретить. Для высокого риска  например, в системах на транспорте и медицине  могут ввести обязательную госрегистрацию и сертификацию, для ограниченного — системы внутреннего контроля качества, добровольную сертификацию.
Daily Storm
Daily Storm
В России обсудят запрет ИИ с «угрожающим уровнем риска». Профильная рабочая группа разработала законопроект о регулировании искусственного интеллекта. В группу входят юристы, представители консалтинговых компаний и участников рынка, развивающих ИИ. Документ обсуждали в том числе на заседаниях рабочих групп в Госдуме. Поправки вводят, в частности, определение ИИ «комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека» , пишет РБК. Есть классификация по уровню возможного риска: неприемлемый, высокий, ограниченный и минимальный. К неприемлемому уровню отнесли системы, создающие угрозу безопасности личности, общества и государства, нарушающие основополагающие права и свободы человека, — их разработку и использование предлагают запретить. Для высокого риска например, в системах на транспорте и медицине могут ввести обязательную госрегистрацию и сертификацию, для ограниченного — системы внутреннего контроля качества, добровольную сертификацию.
В России обсуждают новый законопроект, который может повлиять на работу с искусственным интеллектом. Какие изменения ждут ИТ-рынок?
Хайтек
Хайтек
В России обсуждают новый законопроект, который может повлиять на работу с искусственным интеллектом. Какие изменения ждут ИТ-рынок?
Медвестник
Медвестник
Участники рынка, эксперты и депутаты обсуждают проект госрегулирования искусственного интеллекта. Документ затрагивает и сферу здравоохранения. Подробнее: #Медвестник #Технологии #Организация_здравоохранения
Loading indicator gif
Ограбление века! 1,4 млрд долларов украли хакеры на Bybit
Tokengram.ru
Tokengram.ru
Ограбление века! 1,4 млрд долларов украли хакеры на Bybit
URA.RU
URA.RU
В России собрались запретить искусственный интеллект из-за угрозы В России намерены ввести государственное регулирование искусственного интеллекта. Проект предусматривает запрет на использование систем ИИ, которые представляют собой неприемлемый уровень риска. Подробнее на ura.ru
Forbes Russia
Forbes Russia
Участники рынка, эксперты и депутаты обсуждают законопроект о госрегулировании ИИ. Он предусматривает запрет систем с «неприемлемым уровнем риска», маркировку контента, созданного ИИ, и ответственность разработчиков за вред, нанесенный нейросетями, выяснил РБК. Эксперты считают, что с регулированием ИИ не стоит торопиться
ПолитГид
ПолитГид
В России хотят запретить опасный ИИ Появился проект госрегулирования искусственного интеллекта, пишет РБК. Он запрещает системы с «неприемлемым уровнем риска», вводит маркировку контента и ответственность разработчиков за вред, нанесённый нейросетями. -------- Рабочая группа, куда входят юристы, представители консалтинговых компаний и участники рынка, разрабатывает законопроект «О регулировании систем искусственного интеллекта ИИ в России». Это нужно для реализации Национальной стратегии развития ИИ до 2030 года. Законопроект вводит понятия ИИ, технологий ИИ компьютерное зрение, обработка языка и т.д. и систем ИИ информационные системы . Ещё законопроект делит системы ИИ по уровню потенциального риска. Предлагается запретить опасный ИИ создающий угрозу личности, обществу и государству . Системы с высоким уровнем риска здравоохранение, транспорт должны пройти обязательную регистрацию и сертификацию. Для систем с ограниченным риском — внутренний контроль качества. Также законопроект вводит обязательную маркировку ИИ-контента и ответственность за вред, нанесённый ИИ с обязательным страхованием для операторов систем с высоким уровнем риска . Регулирование авторских прав на контент, созданный ИИ, привязывается к «существенному творческому вкладу человека». И тому подобное. В ЕС, США и Китае тоже идёт регулирование ИИ. Это мировой тренд. При этом важно помнить: чрезмерное и поспешное регулирование может замедлить развитие отрасли.
vc.ru
vc.ru
Группа юристов, представителей консалтинговых компаний и участников ИИ-рынка разработала проект регулирования ИИ в России — он он запрещает системы с «неприемлемым уровнем риска» и вводит ответственность для разработчиков за вред, причинённый нейросетями. Но пока это лишь идея, законопроекта, который зарегулирует всю деятельность ИИ, пока ждать не стоит vc.ru/ai/1919715
42 секунды
42 секунды
РБК: В России обсудят запрет ИИ с «угрожающим уровнем риска» – Проф. рабочая группа разработала проект регулирования ИИ – В группу входят консалтинговые компании и участники рынка – Предлагается ввести понятия ИИ, технологий ИИ и систем ИИ – Также предлагают ввести требования к маркировке систем ИИ – Маркировка должна быть явной, легко идентифицируемой и др. – Обеспечивать маркировку должен будет оператор системы ИИ – Необходима классификация систем ИИ по уровню потенц. риска – Разработка систем с неприемлемым уровнем будет запрещена – Предлагается ввести ответственность за причинение вреда и др. – Разработчик не будет нести ее, если принял необходимые меры – Также ее не будет, если пользователь нарушил правила системы – Для определения прав будут оценивать творческий вклад человека – Если закон примут, то будет год на выполнение его требований – ИИ с высоким риском надо будет сертифицировать за два года – Сейчас российские компании внедряют меры саморегулирования – Достаточной законодательной базы для ИИ пока нет нигде в мире
Loading indicator gif