22 мая, 14:09

Ведущие компании обязались не развертывать опасные ИИ-модели

Ведущие компании обязались не развертывать опасные ИИ-модели
Microsoft, OpenAI и другие обязались защитить человечество от мощных ИИ-систем  Крупнейшие технологические компании заключили международное соглашение о безопасности ИИ на AI Seoul Summit 2024  Концепции будут включать «красные линии» для технологических компаний, определяющие риски, связанные с использованием систем ИИ, которые будут считаться «недопустимыми».   В их числе автоматизированные кибератаки и угроза создания биологического оружия.   Для реагирования на возникновение таких рисков компании планируют внедрить «аварийный выключатель», с помощью которого будет прекращена разработка ИИ-моделей, если нельзя будет гарантировать снижение этих рисков.
Trend Wave
Trend Wave
Microsoft, OpenAI и другие обязались защитить человечество от мощных ИИ-систем Крупнейшие технологические компании заключили международное соглашение о безопасности ИИ на AI Seoul Summit 2024 Концепции будут включать «красные линии» для технологических компаний, определяющие риски, связанные с использованием систем ИИ, которые будут считаться «недопустимыми». В их числе автоматизированные кибератаки и угроза создания биологического оружия. Для реагирования на возникновение таких рисков компании планируют внедрить «аварийный выключатель», с помощью которого будет прекращена разработка ИИ-моделей, если нельзя будет гарантировать снижение этих рисков.
Ведущие IT-корпораций взяли на себя обязательства по обеспечению безопасного применения ИИ.   FT со ссылкой на совместное заявление правительств Великобритании и Южной Кореей пишет, что такие технологические компании, как Amazon, Google,  Meta, OpenAI, а также X AI Илона Маска и китайская Zhipu AI, обязались опубликовать регламенты безопасности с описанием порядка оценки рисков. Такой подход позволит «не разрабатывать и не развертывать модель» в случае невозможности снижения серьезных рисков.    признана в РФ экстремистской организацией и запрещена    ПОДПИШИСЬ -
ZVEZDA ANALYTICS
ZVEZDA ANALYTICS
Ведущие IT-корпораций взяли на себя обязательства по обеспечению безопасного применения ИИ. FT со ссылкой на совместное заявление правительств Великобритании и Южной Кореей пишет, что такие технологические компании, как Amazon, Google, Meta, OpenAI, а также X AI Илона Маска и китайская Zhipu AI, обязались опубликовать регламенты безопасности с описанием порядка оценки рисков. Такой подход позволит «не разрабатывать и не развертывать модель» в случае невозможности снижения серьезных рисков. признана в РФ экстремистской организацией и запрещена ПОДПИШИСЬ -
Мы в безопасности    На саммите AI Seoul Summit 2024 крупнейшие технологические компании, включая Microsoft, Amazon и OpenAI, заключили международное соглашение о безопасности искусственного интеллекта.  Соглашение применяется к пограничным моделям ИИ, включая семейство языковых моделей OpenAI GPT.  Компании обязались обеспечить безопасную разработку передовых ИИ-моделей и предотвращать их злоупотребление.  Это включает определение "красных линий" и введение "аварийного выключателя" для прекращения разработки ИИ в случае невозможности снижения рисков.  Источник
Технопроходцы
Технопроходцы
Мы в безопасности На саммите AI Seoul Summit 2024 крупнейшие технологические компании, включая Microsoft, Amazon и OpenAI, заключили международное соглашение о безопасности искусственного интеллекта. Соглашение применяется к пограничным моделям ИИ, включая семейство языковых моделей OpenAI GPT. Компании обязались обеспечить безопасную разработку передовых ИИ-моделей и предотвращать их злоупотребление. Это включает определение "красных линий" и введение "аварийного выключателя" для прекращения разработки ИИ в случае невозможности снижения рисков. Источник
Сейчас
Сейчас
В Южной Корее планируют в текущем году открыть институт безопасности ИИ. Министр науки и информационно-коммуникационных технологий республики Ли Чжон Хо отметил, что "такие проблемы, как дипфейки, представляют риски для нашего общества"
Блохи в свитере
Блохи в свитере
IT-гиганты Microsoft, Google, Amazon, OpenAI, Xiaomi, Samsung, Tencent и многие другие в ходе саммита AI Seoul Summit 2024 заключили соглашение по обеспечению безопасности деятельности самых передовых моделей ИИ собственной разработки. Соглашение должно обезопасить пользователей: техногиганты обязались не использовать неконтролируемые человеком модели машинного обучения, пообещали сотрудничать с правительственными организациями на предмет безопасности своих разработок.
Roskomsvoboda
Roskomsvoboda
Microsoft, OpenAI, Google и ещё 13 компаний заключили соглашение о безопасности ИИ НАСТОЯЩИЙ МАТЕРИАЛ ИНФОРМАЦИЯ ПРОИЗВЕДЕН И ИЛИ РАСПРОСТРАНЕН ИНОСТРАННЫМ АГЕНТОМ «РОСКОМСВОБОДА» ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА «РОСКОМСВОБОДА». 18+ Крупнейшие технологические компании объединились, чтобы официально взять на себя обязательства по безопасному развитию искусственного интеллекта. На онлайн-встрече, организованной лидерами Великобритании и Южной Кореи, они заключили соглашение по этому вопросу. На встрече присутствовали представители 16 мировых технологических компаний, которые признали, что нейросети дают большие преимущества и значительно ускоряют работу во многих областях, но и приносят с собой риски. Поэтому было заключено соглашение, которое направлено на безопасность пользователей. Были согласованы практические шаги, включая публикацию рамок безопасности, отказ от моделей с неуправляемыми рисками и координацию действий с регулирующими органами на международном уровне. Цель состоит в том, чтобы обеспечить этичное поведение систем искусственного интеллекта и избежать любого непреднамеренного вреда по мере развития технологии.