27 ноября, 07:23
Создание ПО для проверки ИИ на угрозы национальной безопасности до 2028 года


Давыдов.Мнения
В Белом доме задумались о введении правил оборота результатов бюджетной науки Подробнее с материалом можно ознакомиться здесь Мнение В целом это предложение имеет право на жизнь, поскольку формирует одну государственную площадку, которая, собственно говоря, будет собирать и, наверное, мониторить результаты научно-исследовательских и опытно-конструкторских работ НИОКР со всей страны. В этом, конечно, есть плюс. Это более удобно для дальнейшего использования. Плюс это лучше для контроля над тем, кто что делает и в каких объемах, где есть пробелы, что нужно усилить. То есть, если вы хотите, чтобы у вас была такая база, то, наверное, вы должны проверить расходование денежных и бюджетных средств. В представленном проекте говорится и об искусственном интеллекте. Я так понимаю, что такая база будет еще и обучать искусственный интеллект. Это очень правильно. Искусственный интеллект для науки будет брать информацию из этой единой базы. На выходе мы получим отличного помощника и для вузов, и для ученых. На сегодняшний день, как я понимаю, остаются открытыми следующие вопросы. Какое будет целеполагание для использования? Сколько средств будет выделено на создание дата-центра? Кто и как будет контролировать этот дата-центр? Желание поучаствовать и отхватить кусок этого пирога будет у многих крупных игроков, поэтому в этом плане есть опасения, чтобы реализации хорошей идеи не помешала коррупция. В целом же, думаю, стоит эту инициативу поддержать и считать адекватной вызовам времени, достаточно удобной для развития науки. Создание единой базы данных, единого центра, совмещенного с искусственным интеллектом, который может выступать помощником в поиске инноваций, инновационных материалов и национальных разработок для российской науки, важно. По сути дела, мы можем говорить о таком конвергентном искусственном интеллекте. Эксперт: Владимир Хрыков, основатель Академии стратегического проектирования, директор Центра стратегического развития, путешествий и наставничества, г. Нижний Новгород


БЕЛЫЙ ИНТЕРНЕТ
Правительство планирует проверять системы, реализующие технологии искусственного интеллекта ИИ , «на наличие угроз безопасности государства и обороны страны». Для этого до 2028 года планируется создать и внедрить первую версию ПО, которое будет отвечать за такие проверки. Участники рынка подтверждают, что обучение ИИ на госданных требует усиленных мер безопасности поскольку ошибки могут привести к неверным рекомендациям при принятии стратегических госрешений.

Давыдов.Мнения
Системы искусственного интеллекта получат допуск к госданным Подробнее с материалом можно ознакомиться здесь Мнение: Россия переходит на пятый технологический уклад, подразумевающий использование искусственного интеллекта этот уровень технологий предполагает инновации в области микроэлектроники, IT, спутниковой связи, биотехнологий, использования новых материалов и видов энергии . И, конечно, новые вызовы, в том числе связанные с национальной безопасностью, в связи с прогрессом возникают неизбежно. Этому способны противостоять не только спецслужбы Российской Федерации, но и технические специалисты, которые будут отслеживать все возможные угрозы. Искусственный интеллект в нашу жизнь вошел уже навсегда и применяться будет во всех областях народного хозяйства и в специальной, военной технике. Это, безусловно, означает новый риски, которые сейчас просчитать еще невозможно – можно только делать определенные прогнозы. Но наличие рисков не означает, что страны готовы отказываться от технического прогресса. На деле это означает только необходимость учитывать эти риски и проверять используемые системы максимально тщательно. Именно этим путем мы движемся сейчас, и предоставление искусственному интеллекту доступа к государственным данным для обучения ИИ-систем требует усиленных мер безопасности. К 2030 году Россия, как ожидается, будет переходить на шестой технологический уклад, что означает, в частности, повсеместное использование искусственного интеллекта. Это потребует более тщательного обучения таких систем. Кроме того, у этих перспектив есть как минимум одно слабое место, о котором мало упоминают: мы не знаем, как себя поведет искусственный интеллект в случае значительного по силе воздействия, теплового или механического, на оборудование, на котором установлено программное обеспечение. Такого рода опыты не производились. Так что утверждать, что использование искусственного интеллекта, в том числе имеющего доступ к госданным, будет безопасным полностью, было бы преждевременно. Нужно проводить достаточно много проверок и экспериментов с оборудованием, а затем уже проверенные опытные образцы допускать к использованию. Потому что искусственный интеллект – прекрасный инструмент, но никто пока не знает, как он будет работать в случае военных угроз. Эксперт: Олег Иванников, директор благотворительного учреждения «Право и порядок», подполковник запаса МВД, кандидат исторических наук, г. Москва


Время госзакупок
Модели искусственного интеллекта, которые обучили на государственных данных, будут проверяться на предмет угрозы национальной безопасности и обороны страны. Для этого до 2028 года планируется создать и внедрить первую версию ПО, которое будет отвечать за такие проверки — Ъ.


Коммерсантъ
Правительство планирует проверять системы, реализующие технологии искусственного интеллекта ИИ , «на наличие угроз безопасности государства и обороны страны», узнал «Ъ». Для этого до 2028 года планируется создать и внедрить первую версию ПО, которое будет отвечать за такие проверки. Участники рынка подтверждают, что обучение ИИ на госданных требует усиленных мер безопасности поскольку ошибки могут привести к неверным рекомендациям при принятии стратегических госрешений. #Ъузнал

The Экономист
Модели искусственного интеллекта, которые обучили на госданных, решили проверять на предмет угрозы национальной безопасности и обороны страны. Для этого до 2028 года власти создадут и внедрят первую версию ПО, которое будет отвечать за такие проверки. The Экономист

Блохи в свитере
ФСБ проверит на предмет угроз нацбезопасности и обороны ИИ-модели, обученные на госданных. Для этого в ближайшие годы будут разработаны принципы анализа подобных нейромоделей, а затем будет внедрена первая версия программы для анализа. Из федерального бюджета до 2030 года на эти цели выделят 8,1 млрд рублей.

Forbes Russia
Правительство планирует проверять ИИ-модели, обученные на госданных, на предмет угрозы национальной безопасности и обороны страны, узнал «Коммерсантъ». Программу, которая будет анализировать такие модели, хотят создать до 2028 года, а к 2030 году пять систем ИИ должны получить подтверждение «допустимости безопасного использования». К этому времени из бюджета планируется выделить 8,1 млрд рублей на реализацию инициативы

Цифра63
Системы искусственного интеллекта получат допуск к госданным Модели искусственного интеллекта, которые обучили на государственных данных, будут проверяться на предмет угрозы национальной безопасности и обороны страны. Для этого до 2028 года планируется создать и внедрить первую версию ПО, которое будет отвечать за такие проверки. Участники рынка подтверждают, что обучение ИИ на госданных требует усиленных мер безопасности. Это необходимо, так как ошибки могут привести к неверным рекомендациям при принятии стратегических. государственных решений. : ВКонтакте, Одноклассники, Дзен

2035. Новости НТИ
ИИ нацбезопасности угроза Источник: Коммерсантъ Модели искусственного интеллекта, которые обучили на государственных данных, будут проверяться на предмет угрозы национальной безопасности и обороны страны. Для этого до 2028 года планируется создать и внедрить первую версию ПО, которое будет отвечать за такие проверки. Участники рынка подтверждают, что обучение ИИ на госданных требует усиленных мер безопасности. Это необходимо, так как ошибки могут привести к неверным рекомендациям при принятии стратегических государственных решений. Правительство планирует проверять системы, которые реализуют технологию искусственного интеллекта ИИ , «на наличие угроз безопасности государства и обороны страны», говорится в утвержденном в кабмине паспорте федпроекта «Цифровое госуправление» есть у “Ъ” , который войдет в нацпроект «Экономика данных». Тем не менее обучение ИИ на госданных должно производиться с усиленной безопасностью, а также к продукту такого обучения должны иметь доступ только авторизованные пользователи, добавляет гендиректор группы компаний ST IT Антон Аверьянов. Сейчас используемые модели ИИ «получают подтверждения безопасности путем тестирования и применения различных сценариев, необходимых для выявления слабых мест», говорит заместитель директора Центра компетенций НТИ по большим данным МГУ Тимофей Воронин. «Также с 1 января будет использоваться ГОСТ, закрепляющий требования к защите данных при применении ИИ»,— добавляет он.

Похожие новости



+1









+22



+12

![Аватар Телеграм канала: [WORK IN ART] Работа в сфере искусства](https://content.tek.fm/adbf9829-ab1e-4881-8d7f-1a26b827a786.jpg)

+5

Microsoft исследует ограничения ИИ в офисной работе
Технологии
5 часов назад


+1
Исследование показывает растущее применение ИИ в России среди специалистов и ученых
Общество
1 день назад


Канада разрабатывает новые правила для защиты авторских прав в сфере ИИ
Общество
1 день назад


Мальта предоставляет бесплатный доступ к ChatGPT Plus для всех граждан через курс AI for All
Общество
16 часов назад


+22
В России введен прокурорский контроль за воинским учетом и призывом
Общество
1 день назад


+12
Конференция ЦИПР и фестиваль креативных индустрий: важные события в Нижнем Новгороде и Москве
Общество
1 день назад
![Аватар Телеграм канала: [WORK IN ART] Работа в сфере искусства](https://content.tek.fm/adbf9829-ab1e-4881-8d7f-1a26b827a786.jpg)

+5