
РР - все новости
OpenAI создала независимый "Комитет по надзору Совета директоров" для оценки безопасности моделей ИИ. Новый комитет, состоящий из четырех членов, будет следить за запуском и получать регулярные отчёты. Параллельно компания планирует укрепить сотрудничество в сфере безопасности с другими игроками индустрии.


Мы из будущего
OpenAI создала независимый орган с правом приостанавливать выпуск ИИ-моделей по соображениям безопасности OpenAI преобразовала свой Комитет по безопасности и защите в независимый Комитет по надзору совета директоров, наделенный полномочиями приостанавливать запуск моделей из-за опасений по безопасности. Комитет, возглавляемый Зико Колтером, также включает Адама Д Анджело, Пола Накасоне и Николь Селигман. Сэм Альтман больше не является его членом. Орган будет контролировать релизы, задерживая их при обнаружении проблем с безопасностью. Новая структура вызывает вопросы о своей независимости, так как все ее члены входят в совет директоров OpenAI. Мы из будущего

РР - все новости
OpenAI переименовала свой комитет по безопасности в "независимый комитет по надзору за правлением". Новый орган, возглавляемый экспертами из сферы технологий и обороны, сможет задерживать запуск новых моделей ИИ до устранения проблем с безопасностью. Это шаг к повышению стандартов безопасности в индустрии.


Технопроходцы
В OpenAI появилась команда безопасности Компания объявила о создании независимого комитета по безопасности, который получил полномочия приостанавливать релизы ИИ-моделей, если вдруг возникнут сомнения. Несмотря на независимость, все члены комитета входят в совет директоров OpenAI, что вызывает вопросы об уровне автономности. Однако, примечательно, что генеральный директор Сэм Альтман членом всё же не является. OpenAI также планирует расширить сотрудничество с другими компаниями в области ИИ, чтобы улучшить обмен информацией о безопасности, но конкретные шаги пока не определены. Источник

42 секунды
CNBC: OpenAI создала новый независимый комитет совета директоров по вопросам безопасности – Новый комитет безопасности OpenAI возглавит Зико Колтер – Это директор ML-департамента Carnegie Mellon University – В состав нового комитета войдут три других члена совета – Это Адам Д’Анджело, Пол Накасоне и Николь Селигман – Адам Д’Анджело является соучредителем сервиса Quora – Накасоне – бывший глава АНБ, Селигман – бывшая VP Sony – Комитет будет следить за процессами безопасности OpenAI – В частности, комитет проверял на безопасность модель o1


Хлебни ИИ - про искусственный интеллект
OpenAI создала новое независимое подразделение для контроля за безопасностью ИИ-моделей Компания анонсировала преобразование своего комитета по безопасности в автономный наблюдательный совет, который будет подчиняться правлению. Новая структура наделена уникальными полномочиями, включая возможность приостанавливать запуск ИИ-моделей по соображениям безопасности. В обновленный комитет, возглавляемый Зико Колтером, вошли Адам Д Анджело, Пол Накасоне и Николь Селигман. Примечательно, что генеральный директор OpenAI Сэм Альтман больше не является членом этого комитета. Новая структура будет получать сводки от руководства о безопасности релизов и, совместно с полным составом совета директоров, осуществлять контроль за ними, включая возможность откладывать запуск до разрешения выявленных рисков. Члены совета также будут регулярно получать обновления по вопросам безопасности.


TMT Channel
OpenAI создает независимый орган для приостановки работы опасных ИИ-моделей Компания OpenAI объявила о кардинальных изменениях в своей структуре. Комитет по безопасности и защите компании был реорганизован в независимый наблюдательный орган, подчиняющийся непосредственно совету директоров. Новое подразделение получило беспрецедентные полномочия, включая право приостанавливать релизы моделей в случае обнаружения потенциальных угроз. Решение о реорганизации было принято после 90-дневного анализа ситуации. Компания подчеркивает, что эти изменения отражают растущее осознание важности этических аспектов развития ИИ. The Verge задается вопросом, учитывая, что члены комитета по безопасности также являются членами совета директоров OpenAI, не очень понятно, насколько независим комитет на самом деле TMT Channel Подписаться


был бы ты человек - IT, digital
OpenAI объявила о создании независимого наблюдательного органа, который будет контролировать вопросы безопасности при разработке ИИ-моделей. Новая структура получила полномочия приостанавливать релизы моделей, если возникают риски для безопасности. Это решение было принято по итогам 90-дневного анализа мер безопасности компании. Комитет по безопасности возглавил Зико Колтер, а в его состав вошли Адам Д Анджело, Пол Накасоне и Николь Селигман. Генеральный директор OpenAI Сэм Альтман больше не является членом этого комитета. Основная задача нового органа — оценка безопасности и предотвращение потенциальных угроз, связанных с новыми релизами ИИ.


IT — это просто
OpenAI объявила о создании органа контроля безопасности при разработке ИИ-моделей Новая структура получила полномочия приостанавливать релизы моделей, если возникают риски для безопасности. OpenAI также анонсировала планы по расширению сотрудничества с другими участниками ИИ-индустрии и намерена увеличить прозрачность в области безопасности и тестирования своих систем, однако детали этого сотрудничества пока не раскрыты. Что думаете? — одобряю, молодцы — Ну такое.. #news IT — это просто Подписаться
Похожие новости













+3






+3

OpenAI предлагает создать глобальную структуру для управления искусственным интеллектом
Технологии
8 часов назад



Конгресс США инициировал расследование против Сэма Альтмана и OpenAI
Экономика
6 часов назад


В Москве стартовал IV Форум по доверенному ИИ и III Конференция по ИИ в библиотечно-информационной деятельности
Общество
9 часов назад


Google предотвращает первую атаку с использованием ИИ на двухфакторную аутентификацию
Технологии
1 день назад


+3
Конференция AI2Business и прием докладов на Saint HighLoad 2026: внедрение ИИ в бизнес и разработку
Технологии
9 часов назад


OpenAI рассматривает иск против Apple из-за неудачного партнерства
Технологии
37 минут назад


+3