19 августа, 16:06

Эксперты обсуждают риски и возможности регулирования искусственного интеллекта в военной сфере

Эксперты обсуждают риски и возможности регулирования искусственного интеллекта в военной сфере
‍ Насколько распространение технологии искусственного интеллекта безопасно для человека? В каких областях допустимо его использовать? Кто должен нести ответственность за действия ИИ?   Чтобы решить эти вопросы специалисты разработали кодекс этики — единую систему рекомендательных принципов и правил для создания среды развития технологий искусственного интеллекта в России.   В число экспертов, работающих над ним, вошёл заведующий кафедрой теории и истории государства и права #СПбГУ Владислав Архипов.  Он рассказал об основных правилах, которые содержатся в кодексе:   Защищать интересы человека   Нести ответственность за применение ИИ    Внедрять технологии с пользой для людей   Развивать ИИ выше интересов конкуренции   Отражать всю информацию о возможностях и рисках ИИ  Присоединиться к использованию в своей работе кодекса этики можно оставив заявку на сайте Альянса в сфере искусственного интеллекта.
Что там в СПбГУ
Что там в СПбГУ
‍ Насколько распространение технологии искусственного интеллекта безопасно для человека? В каких областях допустимо его использовать? Кто должен нести ответственность за действия ИИ? Чтобы решить эти вопросы специалисты разработали кодекс этики — единую систему рекомендательных принципов и правил для создания среды развития технологий искусственного интеллекта в России. В число экспертов, работающих над ним, вошёл заведующий кафедрой теории и истории государства и права #СПбГУ Владислав Архипов. Он рассказал об основных правилах, которые содержатся в кодексе: Защищать интересы человека Нести ответственность за применение ИИ Внедрять технологии с пользой для людей Развивать ИИ выше интересов конкуренции Отражать всю информацию о возможностях и рисках ИИ Присоединиться к использованию в своей работе кодекса этики можно оставив заявку на сайте Альянса в сфере искусственного интеллекта.
Актуальные комментарии
Актуальные комментарии
ИИ-стерия Приближающиеся выборы президента США обостряют дискуссию об опасности технологий искусственного интеллекта в политических процессах. При этом споры все больше приобретают тревожный характер. Подобная паника отображается как в действиях регуляторов, которые все больше ужесточают контроль над применением и распространением ИИ-сгенерированного контента, так и в освещении СМИ недавнего инцидента с репостом «дипфейка» И.Маском. Подробнее — в колонке политолога Ярослава Барыкина для «Актуальных комментариев».
Новое исследование не обнаружило в БЯМ угрозы для людей  Искусственный интеллект может быть менее страшной экзистенциальной угрозой, чем принято считать. Новое исследование показывает, что большие языковые модели  БЯМ  способны лишь следовать инструкциям и не могут самостоятельно развивать новые навыки.   Ученые утверждают, что такие модели «управляемы, предсказуемы и безопасны». Несмотря на страхи по поводу ИИ, возникшие еще в 1960-х годах, настоящая опасность заключается не в самих машинах, а в том, как люди их используют.
Хайтек+
Хайтек+
Новое исследование не обнаружило в БЯМ угрозы для людей Искусственный интеллект может быть менее страшной экзистенциальной угрозой, чем принято считать. Новое исследование показывает, что большие языковые модели БЯМ способны лишь следовать инструкциям и не могут самостоятельно развивать новые навыки. Ученые утверждают, что такие модели «управляемы, предсказуемы и безопасны». Несмотря на страхи по поводу ИИ, возникшие еще в 1960-х годах, настоящая опасность заключается не в самих машинах, а в том, как люди их используют.
ИИ не представляет экзистенциальной угрозы для человечества  Исследователи из Батского университета и Технического университета Дармштадта утверждают, что большие языковые модели  БЯМ  не представляют экзистенциальной угрозы для человечества. Они способны лишь следовать инструкциям и не могут самостоятельно развивать новые навыки, что делает их управляемыми и предсказуемыми.   Основная опасность искусственного интеллекта заключается не в самих технологиях, а в том, как люди их используют. Ученые отмечают, что страх перед ИИ преувеличен, и реальная угроза исходит от человеческого фактора, а не от самих машин.  Мы из будущего
Мы из будущего
Мы из будущего
ИИ не представляет экзистенциальной угрозы для человечества Исследователи из Батского университета и Технического университета Дармштадта утверждают, что большие языковые модели БЯМ не представляют экзистенциальной угрозы для человечества. Они способны лишь следовать инструкциям и не могут самостоятельно развивать новые навыки, что делает их управляемыми и предсказуемыми. Основная опасность искусственного интеллекта заключается не в самих технологиях, а в том, как люди их используют. Ученые отмечают, что страх перед ИИ преувеличен, и реальная угроза исходит от человеческого фактора, а не от самих машин. Мы из будущего
Искусственный интеллект  ИИ  совсем недавно стал частью повседневной жизни, но уже оказывает неоднозначное влияние на международные отношения. Новейшие технологии используют не только дипломаты и аналитики, их активно внедряют в военную сферу и даже политическую жизнь, что, несомненно, несет много рисков. Про опасность ИИ уже упоминал генеральный секретарь ООН Антониу Гутерриш, в этом же контексте в Европейском союзе идут дискуссии о распространении дезинформации. В свою очередь, парламентские выборы в Индии запомнились многочисленными дипфейками, которые даже оживляли умерших политиков, в Аргентине современные технологии активно использует президент Хавьер Милей, а в США Дональд Трамп и Камала Харрис продолжают обвинять друг друга в распространении фейков, сгенерированных ИИ. Наконец, реальностью становится и грядущая гонка вооружений между ведущими странами в цифровой сфере. В том, как искусственный интеллект применяют в мировой политике и какие угрозы он несет человечеству, разбиралась «Лента.ру».
Сейчас
Сейчас
Искусственный интеллект ИИ совсем недавно стал частью повседневной жизни, но уже оказывает неоднозначное влияние на международные отношения. Новейшие технологии используют не только дипломаты и аналитики, их активно внедряют в военную сферу и даже политическую жизнь, что, несомненно, несет много рисков. Про опасность ИИ уже упоминал генеральный секретарь ООН Антониу Гутерриш, в этом же контексте в Европейском союзе идут дискуссии о распространении дезинформации. В свою очередь, парламентские выборы в Индии запомнились многочисленными дипфейками, которые даже оживляли умерших политиков, в Аргентине современные технологии активно использует президент Хавьер Милей, а в США Дональд Трамп и Камала Харрис продолжают обвинять друг друга в распространении фейков, сгенерированных ИИ. Наконец, реальностью становится и грядущая гонка вооружений между ведущими странами в цифровой сфере. В том, как искусственный интеллект применяют в мировой политике и какие угрозы он несет человечеству, разбиралась «Лента.ру».
Сейчас
Сейчас
Во-вторых, ИИ создает риски для безопасности из-за его милитаризации: искусственный интеллект становится новой частью третьей технической революции в военном деле и превосходит предыдущие разработки в сфере вооружений. Вадим Козюлин, заведующий Центром глобальных исследований и международных отношений Дипломатической академии МИД России, в разговоре с «Лентой.ру» заявил, что сейчас избежать гонки вооружений в сфере новейших технологий вряд ли удастся. «Тот, кто отстанет в гонке современных технологий и в гонке военных технологий , в случае конфликта рискует проиграть в течение очень короткого периода», — считает эксперт. Зачем регулировать ИИ? Международные соглашения времен холодной войны о нераспространении ядерного оружия и запрете биологического оружия помогли урегулировать гонку вооружений и поддержать мир. Подобные договоренности по ИИ также могут предотвратить его неконтролируемое применение. В условиях международной напряженности расширение сотрудничества по вопросам развития ИИ может снизить риск несогласованного внедрения этих технологий в военной сфере. Это, в свою очередь, уменьшит вероятность технологических катастроф и будет способствовать более осторожному и устойчивому развитию ИИ. Но при этом в сфере ИИ странам очень трудно договориться даже о том, что можно контролировать, отметил в комментарии для «Ленты.ру» научный сотрудник Центра международной безопасности Института мировой экономики и международных отношений РАН Дмитрий Стефанович. «В отличие от более традиционных сфер контроля над вооружениями и нераспространением, в которых тоже не все гладко, в случае с ИИ по большому счету отсутствует измеряемый предмет для контроля», — отметил эксперт. По его мнению, странам сначала надо сформировать общее понимание, что представляет собой ИИ в сфере международной безопасности. Без этого, по словам Дмитрия Стефановича, снижения накала конкуренции ожидать не стоит. С ним соглашается и политолог Вадим Козюлин. По его словам, желание и готовность договориться у ведущих стран присутствует и это действительно нужно, но есть много неопределенностей: «Тема очень сложная юридически и технически. Пока не очень понятно, как эту быстро развивающуюся сферу можно контролировать. Старые схемы здесь не работают».
INNOVATIONS
INNOVATIONS
Большие языковые модели: не такие страшные, как кажется Новое исследование показало, что большие языковые модели БЯМ вроде ChatGPT не представляют экзистенциальной угрозы. Они могут лишь следовать инструкциям и не способны самостоятельно развивать новые навыки. Ученые утверждают, что ИИ управляемы и предсказуемы. Хотя БЯМ могут манипулировать информацией и создавать фейки, их поведение ограничено изначальными параметрами. Настоящая опасность — это не ИИ, а те, кто им управляет. Иными словами, нейросети не выйдут из-под контроля сами по себе, но их могут использовать как оружие. Так что бояться восстания машин пока не стоит — если только ИИ не завладеет кто-то из нас с неблагоприятными намерениями
Международный фреш
Международный фреш
ИИ-мания охватывает новое правительство Великобритании - Politico Аналитический институт экс-премьер-министра Великобритании Тони Блэра выступает за внедрение искусственного интеллекта в правительство страны. По его мнению, данная инициатива поспособствует улучшению государственных услуг, сокращению расходов и повышению эффективности. Институт утверждает, что ИИ может сэкономить до 40 миллиардов фунтов стерлингов в год, а также сократить число государственных служащих на миллион человек. Некоторые действительно считают ИИ «чудодейственным средством», которое открывает большие перспективы для государственного сектора, однако другие предостерегают от рисков внедрения ненадежных и непрозрачных технологий в правительство. ИИ преподносится как ключевое решение для поиска экономии в государственных финансах, но на его внедрение уйдет целых 500 миллионов фунтов стерлингов, и никто не знает, сколько времени потребуется, чтобы окупить эти затраты. Однако эксперты также предупреждают, что ИИ может ошибаться и им все равно нужны будут сотрудники для перепроверки. Более того, они считают, что его нужно внедрять осторожно, особенно уделяя внимание вопросам конфиденциальности данных. Международный фреш