

Высшая школа экономики
В Вышке разработали этические принципы использования ИИ Высшая школа экономики разработала и утвердила Декларацию этических принципов использования искусственного интеллекта. НИУ ВШЭ считает ИИ мощным инструментом, способным обогатить образовательный и научный процессы, и призывает к его осмысленному и критичному использованию. В документе прописаны ключевые принципы взаимодействия с ИИ. Среди них: приоритет человеческого общения; прозрачность; конфиденциальность и защита интеллектуальных прав; исключение предвзятости и дискриминации; ответственное отношение к ИИ и т.д. Декларация была утверждена на заседании Ученого совета университета. В НИУ ВШЭ надеются, что это станет примером для других образовательных учреждений в принятии похожих документов


Не баг, а фича
Искусственный интеллект не заменит человека, по крайней мере в плане кибербезопасности. Об этом рассказал вице-президент по кибербезопасности Сбера Сергей Лебедь на GigaConf. По его словам, сейчас видится три варианта построения процессов кибербезопасности с использованием технологий искусственного интеллекта: • Традиционные процессы, сконструированные людьми: ИИ-агенты будут исполнять их и сообщать об отклонениях в их выполнении; • ИИ самостоятельно конструирует новые процессы, человек берет на себя роль конструктора «мозга» ИИ; • Человек декларативно ставит задачу и оценивает результативность, ИИ-система сама от и до определяет, как будет решена задача. При этом Сергей подчеркнул: Ключевым умением AI должно быть самообучение и переход от процесса обработки данных к применению знаний. Это значит, что AI должен уметь получать опыт, обобщать его, познавать и понимать. То есть по сути быть мыслящей сущностью, самостоятельно принимающей верные решения и совершающей верные действия в каждом конкретном случае Не баг, а фича

Казарин в цифровом эфире
Развитие ИИ создаст новые профессии в сфере кибербеза При обсуждении темы искусственного интеллекта нередко можно услышать опасения относительно того, как его использование повлияет на рынок труда. Позитивный прогноз представил Сбер, взяв в качестве примера сферу кибербезопасности: ИИ не заменит человека, а придаст импульс появлению новых профессий. В их числе: оператор цифрового аватара, тренер моделей, конструктор специализированных ИИ-агентов, специалист по знаниям. Банк поделился статистикой: ежедневно в Сбере обрабатывается порядка 500 млрд событий в сфере кибербезопасности — в 10 раз больше, чем 4 года назад. За это же время в 2,5 раза выросло ежемесячное количество транзакций. В условиях такого увеличения объёмов работы и роста угроз, использование ИИ-решений жизненно необходимо для обеспечения безопасности. Также Сбер обозначил несколько вариантов построения процессов кибербезопасности с использованием технологий ИИ: Традиционные процессы, сконструированные людьми, — ИИ-агенты будут исполнять их и сообщать об отклонениях в их выполнении ИИ самостоятельно конструирует новые процессы, человек берёт на себя роль конструктора «мозга» решения Наиболее футуристический вариант: человек ставит задачу и оценивает результативность, система сама от и до определяет, как будет она будет решена При этом ключевым умением ИИ должно быть самообучение и переход от процесса обработки данных к применению знаний.


Денежный Поток
«Лично я не понимаю людей, которые работают в ИТ-сфере и всерьёз рассуждают о разработке единственного истинного искусственного интеллекта», — заявил Марк Цукерберг. По его мнению, ИИ много не бывает, даже его UGC-версий, но чтобы рынок развивался, нужна открытость.

Пул N3
Робот не может причинить вреда человеку Искусственный интеллект не должен заменять живое взаимодействие людей. НИУ ВШЭ разработала этические принципы использования искусственного интеллекта. Получилось не 3 пункта, как в законах робототехники Айзека Азимова, а девять. Среди них: Приоритет человеческого общения: ИИ не должен заменять живое взаимодействие. Напротив, его использование должно способствовать укреплению межличностного общения и совместной работы. Информированное использование: руководство университета обязуется обучать сотрудников и студентов принципам работы ИИ и его возможностям. Академическая честность: использование ИИ как дополнения, а не замены естественного интеллекта, самостоятельность в выполнении работ являются основой академической честности. Прозрачность: сотрудники и студенты обязаны указывать, где и как использовался ИИ, особенно в научных и образовательных проектах. Это также касается программ, имитирующих человеческое общение. Конфиденциальность и защита интеллектуальных прав: ИИ должен обеспечивать защиту персональных данных и интеллектуальной собственности. Недопустимо вводить конфиденциальную информацию в ИИ-системы без соответствующего разрешения. Справедливая доступность: все участники образовательного процесса должны иметь равный доступ к ИИ. Нельзя требовать использования технологий ИИ, которые влекут за собой значительные финансовые затраты, если это не обеспечено всем студентам и сотрудникам. Разумные ограничения: важно осознавать риски и последствия использования ИИ. Университет оставляет за собой право вводить ограничения на разработку и использование ИИ, если это необходимо для защиты интересов университета и его сообщества.


TrendWatching
AI не искоренит профессии, а лишь увеличит их количество. Такой прогноз на технологической конференции GigaConf дал вице-президент Сбера по кибербезопасности Сергей Лебедь. Он перечислил несколько возможных профессий будущего: оператор AI-аватара, конструктор моделей, конструктор агентов, специалист по знаниями. По мнению Лебедя, в ближайшем будущем возможны три варианта построения процессов кибербезопасности с использованием технологий AI. Люди во главе: AI-агенты продолжат лишь исполнять задачи и сообщать об ошибках; AI самостоятельно конструирует новые процессы, но человек выступает в роли конструктора «мозга» AI; Вкалывают роботы: человек лишь ставит задачу и оценивает результативность, нейросеть полностью отвечает за процесс и пути решения. Как отметил Лебедь, при любом раскладе ключевым умением AI является самообучение и переход от процесса обработки данных к их применению, самостоятельно мыслить, принимать верные решения и действовать сообразно этому.


vc.ru
«Лично я не понимаю людей, которые работают в ИТ-сфере и всерьёз рассуждают о разработке единственного истинного искусственного интеллекта», — заявил Марк Цукерберг. По его мнению, ИИ много не бывает, даже его UGC-версий, но чтобы рынок развивался, нужна открытость vc.ru/ai/1265016


AI Masterminds
Высшая школа экономики стала первым университетом в России, утвердившим декларацию этических принципов создания и использования систем искусственного интеллекта. Документ станет ориентиром для всех участников образовательного процесса, считают в вузе. Декларация охватывает ряд ключевых принципов, направленных на этичное и ответственное использование ИИ. В университете видят в искусственном интеллекте не просто технологию, но мощный инструмент, способный обогатить образовательный и научный процессы. Декларация подчёркивает, что использование ИИ должно быть осмысленным и критическим. В НИУ ВШЭ надеются, что этот шаг станет примером для других образовательных учреждений в принятии похожих документов и положений.

Наука и университеты
Высшая школа экономики стала первым университетом в России, утвердившим Декларацию этических принципов создания и использования систем искусственного интеллекта. Декларация была утверждена Ученым советом университета 26 июня. Декларация охватывает ряд ключевых принципов, направленных на этичное и ответственное использование ИИ. Приоритет человеческого общения: ИИ не должен заменять живое взаимодействие. Напротив, его использование должно способствовать укреплению межличностного общения и совместной работы. Информированное использование: руководство университета обязуется обучать сотрудников и студентов принципам работы ИИ и его возможностям. Это поможет не только эффективно применять ИИ, но и критически оценивать его решения. Академическая честность: использование ИИ как дополнения, а не замены естественного интеллекта, самостоятельность в выполнении работ являются основой академической честности. Это включает в себя проверку результатов ИИ на достоверность и соответствие этическим нормам. Прозрачность: сотрудники и студенты обязаны указывать, где и как использовался ИИ, особенно в научных и образовательных проектах. Это также касается программ, имитирующих человеческое общение. Конфиденциальность и защита интеллектуальных прав: ИИ должен обеспечивать защиту персональных данных и интеллектуальной собственности. Недопустимо вводить конфиденциальную информацию в ИИ-системы без соответствующего разрешения. Исключение предвзятости и дискриминации: ИИ может воспроизводить предвзятость и социальные стереотипы, заложенные в данные. Поэтому важно предотвращать дискриминацию по различным признакам. Справедливая доступность: все участники образовательного процесса должны иметь равный доступ к ИИ. Нельзя требовать использования технологий ИИ, которые влекут за собой значительные финансовые затраты, если это не обеспечено всем студентам и сотрудникам. Разумные ограничения: важно осознавать риски и последствия использования ИИ. Университет оставляет за собой право вводить ограничения на разработку и использование ИИ, если это необходимо для защиты интересов университета и его сообщества. Ответственное отношение к ИИ: все разработки и использование ИИ должны соответствовать законодательству и внутренним правилам университета.
Похожие новости






+25



+27



+3






+14

Опрос Gartner: Внедрение ИИ не привело к росту рентабельности у 80 компаний
Экономика
2 часа назад


Минздрав РФ внедряет ИИ для снижения нагрузки на медиков
Наука
11 часов назад


+25
Минпросвещения России утвердило концепцию исторического просвещения для всех уровней образования
Общество
1 день назад


+27
В России предложили систематизировать уроки мужества в школах с участием ветеранов
Общество
1 день назад


+3
Исследование: Люди с аутизмом выбирают друзей с похожими психическими особенностями
Общество
5 часов назад


Минобрнауки вводит день тишины для абитуриентов при зачислении в вузы
Общество
14 часов назад


+14