19 августа, 16:06
Эксперты обсуждают риски и возможности регулирования искусственного интеллекта в военной сфере



Что там в СПбГУ
Насколько распространение технологии искусственного интеллекта безопасно для человека? В каких областях допустимо его использовать? Кто должен нести ответственность за действия ИИ? Чтобы решить эти вопросы специалисты разработали кодекс этики — единую систему рекомендательных принципов и правил для создания среды развития технологий искусственного интеллекта в России. В число экспертов, работающих над ним, вошёл заведующий кафедрой теории и истории государства и права #СПбГУ Владислав Архипов. Он рассказал об основных правилах, которые содержатся в кодексе: Защищать интересы человека Нести ответственность за применение ИИ Внедрять технологии с пользой для людей Развивать ИИ выше интересов конкуренции Отражать всю информацию о возможностях и рисках ИИ Присоединиться к использованию в своей работе кодекса этики можно оставив заявку на сайте Альянса в сфере искусственного интеллекта.

Актуальные комментарии
ИИ-стерия Приближающиеся выборы президента США обостряют дискуссию об опасности технологий искусственного интеллекта в политических процессах. При этом споры все больше приобретают тревожный характер. Подобная паника отображается как в действиях регуляторов, которые все больше ужесточают контроль над применением и распространением ИИ-сгенерированного контента, так и в освещении СМИ недавнего инцидента с репостом «дипфейка» И.Маском. Подробнее — в колонке политолога Ярослава Барыкина для «Актуальных комментариев».


Хайтек+
Новое исследование не обнаружило в БЯМ угрозы для людей Искусственный интеллект может быть менее страшной экзистенциальной угрозой, чем принято считать. Новое исследование показывает, что большие языковые модели БЯМ способны лишь следовать инструкциям и не могут самостоятельно развивать новые навыки. Ученые утверждают, что такие модели «управляемы, предсказуемы и безопасны». Несмотря на страхи по поводу ИИ, возникшие еще в 1960-х годах, настоящая опасность заключается не в самих машинах, а в том, как люди их используют.


Мы из будущего
ИИ не представляет экзистенциальной угрозы для человечества Исследователи из Батского университета и Технического университета Дармштадта утверждают, что большие языковые модели БЯМ не представляют экзистенциальной угрозы для человечества. Они способны лишь следовать инструкциям и не могут самостоятельно развивать новые навыки, что делает их управляемыми и предсказуемыми. Основная опасность искусственного интеллекта заключается не в самих технологиях, а в том, как люди их используют. Ученые отмечают, что страх перед ИИ преувеличен, и реальная угроза исходит от человеческого фактора, а не от самих машин. Мы из будущего


Сейчас
Искусственный интеллект ИИ совсем недавно стал частью повседневной жизни, но уже оказывает неоднозначное влияние на международные отношения. Новейшие технологии используют не только дипломаты и аналитики, их активно внедряют в военную сферу и даже политическую жизнь, что, несомненно, несет много рисков. Про опасность ИИ уже упоминал генеральный секретарь ООН Антониу Гутерриш, в этом же контексте в Европейском союзе идут дискуссии о распространении дезинформации. В свою очередь, парламентские выборы в Индии запомнились многочисленными дипфейками, которые даже оживляли умерших политиков, в Аргентине современные технологии активно использует президент Хавьер Милей, а в США Дональд Трамп и Камала Харрис продолжают обвинять друг друга в распространении фейков, сгенерированных ИИ. Наконец, реальностью становится и грядущая гонка вооружений между ведущими странами в цифровой сфере. В том, как искусственный интеллект применяют в мировой политике и какие угрозы он несет человечеству, разбиралась «Лента.ру».

Сейчас
Во-вторых, ИИ создает риски для безопасности из-за его милитаризации: искусственный интеллект становится новой частью третьей технической революции в военном деле и превосходит предыдущие разработки в сфере вооружений. Вадим Козюлин, заведующий Центром глобальных исследований и международных отношений Дипломатической академии МИД России, в разговоре с «Лентой.ру» заявил, что сейчас избежать гонки вооружений в сфере новейших технологий вряд ли удастся. «Тот, кто отстанет в гонке современных технологий и в гонке военных технологий , в случае конфликта рискует проиграть в течение очень короткого периода», — считает эксперт. Зачем регулировать ИИ? Международные соглашения времен холодной войны о нераспространении ядерного оружия и запрете биологического оружия помогли урегулировать гонку вооружений и поддержать мир. Подобные договоренности по ИИ также могут предотвратить его неконтролируемое применение. В условиях международной напряженности расширение сотрудничества по вопросам развития ИИ может снизить риск несогласованного внедрения этих технологий в военной сфере. Это, в свою очередь, уменьшит вероятность технологических катастроф и будет способствовать более осторожному и устойчивому развитию ИИ. Но при этом в сфере ИИ странам очень трудно договориться даже о том, что можно контролировать, отметил в комментарии для «Ленты.ру» научный сотрудник Центра международной безопасности Института мировой экономики и международных отношений РАН Дмитрий Стефанович. «В отличие от более традиционных сфер контроля над вооружениями и нераспространением, в которых тоже не все гладко, в случае с ИИ по большому счету отсутствует измеряемый предмет для контроля», — отметил эксперт. По его мнению, странам сначала надо сформировать общее понимание, что представляет собой ИИ в сфере международной безопасности. Без этого, по словам Дмитрия Стефановича, снижения накала конкуренции ожидать не стоит. С ним соглашается и политолог Вадим Козюлин. По его словам, желание и готовность договориться у ведущих стран присутствует и это действительно нужно, но есть много неопределенностей: «Тема очень сложная юридически и технически. Пока не очень понятно, как эту быстро развивающуюся сферу можно контролировать. Старые схемы здесь не работают».

INNOVATIONS
Большие языковые модели: не такие страшные, как кажется Новое исследование показало, что большие языковые модели БЯМ вроде ChatGPT не представляют экзистенциальной угрозы. Они могут лишь следовать инструкциям и не способны самостоятельно развивать новые навыки. Ученые утверждают, что ИИ управляемы и предсказуемы. Хотя БЯМ могут манипулировать информацией и создавать фейки, их поведение ограничено изначальными параметрами. Настоящая опасность — это не ИИ, а те, кто им управляет. Иными словами, нейросети не выйдут из-под контроля сами по себе, но их могут использовать как оружие. Так что бояться восстания машин пока не стоит — если только ИИ не завладеет кто-то из нас с неблагоприятными намерениями

Международный фреш
ИИ-мания охватывает новое правительство Великобритании - Politico Аналитический институт экс-премьер-министра Великобритании Тони Блэра выступает за внедрение искусственного интеллекта в правительство страны. По его мнению, данная инициатива поспособствует улучшению государственных услуг, сокращению расходов и повышению эффективности. Институт утверждает, что ИИ может сэкономить до 40 миллиардов фунтов стерлингов в год, а также сократить число государственных служащих на миллион человек. Некоторые действительно считают ИИ «чудодейственным средством», которое открывает большие перспективы для государственного сектора, однако другие предостерегают от рисков внедрения ненадежных и непрозрачных технологий в правительство. ИИ преподносится как ключевое решение для поиска экономии в государственных финансах, но на его внедрение уйдет целых 500 миллионов фунтов стерлингов, и никто не знает, сколько времени потребуется, чтобы окупить эти затраты. Однако эксперты также предупреждают, что ИИ может ошибаться и им все равно нужны будут сотрудники для перепроверки. Более того, они считают, что его нужно внедрять осторожно, особенно уделяя внимание вопросам конфиденциальности данных. Международный фреш
Похожие новости







+11







+1






+7

В России разработана система ИИ для беспилотников и автоматизации авиации
Технологии
1 день назад



В Италии зафиксирован первый случай лечения зависимости от искусственного интеллекта
Происшествия
17 часов назад


+11
Кремниевая долина нанимает философов для обучения ИИ с зарплатой до 400 тыс. долларов
Общество
1 день назад



Медиафорум на КазаньФорум: будущее журналистики и ИИ в центре обсуждений
Общество
1 день назад


+1
Инвестиции в ИИ приводят к снижению свободного денежного потока у американских IT гигантов
Экономика
12 часов назад


Обсуждение поддержки бизнеса и новые инициативы на ПМЭФ
Экономика
1 день назад


+7