1 сентября, 13:57
OpenAI и Anthropic предоставят доступ к ИИ-моделям правительству США для оценки безопасности
Сиолошная
Sama твитнул, что OpenAI достигли договорённостей с US AI Safety Institute такой есть , являющегося частью National Institute of Standards and Technology NIST . Цель партнёрства — независимое предварительное тестирование грядущих фронтир-моделей компании. Кроме этого, напомню, что буквально до конца недели истекает срок в 90 дней, которые OpenAI отвели сами себе для работы комитета по безопасности над списком рекомендаций по развёртыванию и защите будущих моделей — новость тут. Это не значит, что мы получим увлекательное чтиво буквально завтра — до публикации в общем доступе документ сначала должен пройти оценку советом директоров большая часть которых так и так над ним работала . Но оптимистично где-то в серединке сентября должно быть. Также дополню, что именно в этом посте было написано о начале тренировки next frontier model. ждём новостей, утечек и последующего релиза, что бы там не готовили. О, и да, по старой схеме как было перед GPT-4 OpenAI снова ищут инвестиции, оценка компании, согласно Bloomberg, будет выше 100 миллиардов долларов с прошлых $83B : 1 выпуск маленькой модели, но с новой технологией, на всех Strawberry 2 подковёрное тестирование новой модели 3 привлечение капитала с секретными демонстрациями потенциальным инвесторам Microsoft GPT-4 аж в Bing запихнули тогда 4 публичный анонс
Технологии81 день назад
[Conspiranews]
Ну и по традиции, доброе утро! OpenAI согласилась сдавать свои будущие ИИ-модели властям США на проверку. Эти компании подписали меморандумы с Институтом безопасности ИИ США, что позволит правительству проверять модели на потенциальные риски и предлагать улучшения безопасности. Данное сотрудничество происходит на фоне обсуждений о регулировании искусственного интеллекта с целью сбалансировать безопасность и инновации.
Технологии79 дней назад
Мы из будущего
OpenAI и Anthropic будут предоставлять доступ к своим новым ИИ-моделям правительству США перед их публичным выпуском для оценки безопасности Компании подписали меморандумы с Американским институтом безопасности искусственного интеллекта при Национальном институте стандартов и технологий NIST , что направлено на формирование стандартов ответственной разработки ИИ в США. В Калифорнии принят закон, обязывающий компании применять меры безопасности при обучении ИИ-моделей, что вызвало неоднозначную реакцию в индустрии. Законодатели и крупные компании стремятся к регулированию, но термин “безопасность” пока остается расплывчатым, вызывая неопределенность. Мы из будущего
Технологии78 дней назад
ADPASS
OpenAI и Anthropic дадут доступ государству к своим ИИ Два лидера нейро-революции подписали соглашения с правительством США на исследования и тестирование ИИ. Его будет проводить Институт безопасности искусственного интеллекта, созданный администрацией Байдена для оценки известных и возникающих рисков этой технологии внутри Национального института стандартов и технологий Министерства торговли США. В рамках договоров институт получит доступ к основным новым моделям от OpenAI и Anthropic еще до их выпуска. Безопасный, заслуживающий доверия ИИ имеет решающее значение для положительного влияния технологии. Наше сотрудничество с Институтом безопасности ИИ использует их обширный опыт для тщательного тестирования наших моделей перед широким внедрением, — сказал соучредитель Anthropic, стартапа с деньгами Amazon и Alphabet, Джек Кларк. Про обширный опыт — это сильное заявление: институт ИИ создан только в прошлом году. Более конкретно, зачем нужно соглашение, высказался главный стратегический директор OpenAI Джейсон Квон. Это обеспечение лидерства США в мире. Мы считаем, что институт играет важную роль в определении лидерства США в ответственной разработке искусственного интеллекта, и, надеемся, что наша совместная работа предлагает основу, на которой будет строить остальной мир. Подписаться
Технологии80 дней назад
Хайтек+
OpenAI и Anthropic будут показывать свои ИИ-модели правительству США перед выпуском OpenAI и Anthropic предоставят доступ к своим новым ИИ-моделям правительству США до их публичного выпуска для оценки безопасности. Обе компании подписали меморандумы с Институтом безопасности ИИ при NIST. Это сотрудничество направлено на формирование стандартов ответственной разработки искусственного интеллекта в США. В то же время законодатели Калифорнии приняли закон, обязывающий компании применять меры безопасности при обучении ИИ-моделей, что вызвало неоднозначную реакцию в индустрии.
Технологии80 дней назад
Чёрный Треугольник
OpenAI и Anthropic заключили соглашения с правительством США, которые обеспечивают ранний доступ к тестированию их новых моделей искусственного интеллекта перед их публичным релизом. Это сотрудничество включает взаимодействие с Национальным институтом стандартов и технологий NIST и Институтом безопасности ИИ США. Оба бизнеса планируют углубленное сотрудничество для анализа рисков и улучшения своих моделей. Ранее подобное соглашение было достигнуто с Meta . ============== Meta признана в РФ экстремистской
Технологии78 дней назад
Похожие новости
Переписка Маска и Альтмана раскрывает детали конфликта вокруг AGI
Технологии
1 день назадЭксперты Сбера провели урок по искусственному интеллекту в российских школах
Общество
6 часов назад +5
Сережа Мезенцев на Yandex ML Prize: Встреча с учеными раскрывает роль науки в ИИ
Общество
1 день назад +3
Школьники из МГОУ СОШ № 1329 под руководством студента завоевали I место на фестивале робототехники
Общество
1 день назад +1
«Яндекс» запускает проект «Умный магазин» для мониторинга торговых сетей в Узбекистане и России
Технологии
5 часов назад +5
Хакатон по искусственному интеллекту собрал студентов и экспертов в Санкт-Петербурге
Общество
1 час назад +5