14 сентября, 12:50
OpenAI сообщает о среднем риске применения новой ИИ-модели o1 для разработки биооружия

Forbes Russia
OpenAI, представившая новую ИИ-модель o1, заявила о повышенном риске ее применения для разработки биооружия, следует из системной карты o1. Стартап определил этот риск как «средний», что является наивысшим уровнем, который он когда-либо присваивал предыдущим ИИ-моделям. В то же время OpenAI отметила, что речь идет о риске такого несанкционированного использования лишь со стороны экспертов в области, поскольку для таких сложных задач нужны навыки работы в лаборатории, которые ИИ пока заменить не может
Технологии202 дня назад

Банки, деньги, два офшора
OpenAI, представившая новую ИИ-модель o1, заявила о повышенном риске её применения для разработки биооружия, следует из системной карты o1. Стартап определил этот риск как «средний», что является наивысшим уровнем, который он когда-либо присваивал предыдущим ИИ-моделям.
Технологии201 день назад


Картотека
OpenAI, представившая новую ИИ-модель o1, заявила о повышенном риске её применения для разработки биооружия, следует из системной карты o1. Стартап определил этот риск как «средний», что является наивысшим уровнем, который он когда-либо присваивал предыдущим ИИ-моделям. Картотека Все по полочкам
Технологии201 день назад


Айтишник | Апи | Технологии
OpenAI $MSFT, представившая новую ИИ-модель o1, заявила о повышенном риске её применения для разработки биооружия, следует из системной карты o1. Стартап определил этот риск как «средний», что является наивысшим уровнем, который он когда-либо присваивал предыдущим ИИ-моделям. Айтишник Подписаться
Технологии201 день назад

Джинн из Пробирки | Биолаборатории
В OpenAI заявили о повышенном риске применения ее ИИ-модели для создания биооружия OpenAI, представившая новую ИИ-модель o1, заявила о повышенном риске ее применения для разработки биооружия, следует из системной карты o1. Стартап определил этот риск как «средний», что является наивысшим уровнем, который он когда-либо присваивал предыдущим ИИ-моделям. В то же время OpenAI отметила, что речь идет о риске такого несанкционированного использования лишь со стороны экспертов в области, поскольку для таких сложных задач нужны навыки работы в лаборатории, которые ИИ пока заменить не может. СМИ обращают внимание, что «средний» уровень такой угрозы является наивысшим, который OpenAI когда-либо присваивала своим моделям. Так, в системной карте GPT-4o, представленной в начале августа, такой риск назван «низким». Раздел карты, куда входит оценка биологической угрозы, включает также риски, связанные с использованием моделей компании для разработки химического, радиологического и ядерного оружия. При этом OpenAI уточнила, что при оценке рисков для o1 сосредоточилась именно на угрозе в части биологического оружия, поскольку эта область обладает «самым низким порогом для входа» в сравнении с остальными тремя. В то же время компания подчеркивает, что речь идет о риске такого несанкционированного использования лишь со стороны экспертов в области, поскольку для таких сложных задач нужны навыки работы в лаборатории, которые ИИ-модель пока заменить не может. Джинн из Пробирки - Подписаться
Технологии199 дней назад



Пирамида 👁🗨
OpenAI заявила о повышенном риске применения ее новой ИИ-модели для создания биооружия В карте, которая поясняет работу новый модели o1, компания предупреждают о «среднем риске» ее несанкционированного использования для разработки биологического оружия. При этом «средний» уровень угрозы является наивысшим, который OpenAI когда-либо присваивала своим моделям.
Технологии201 день назад


Квантум Тех
OpenAI $MSFT, представившая новую ИИ-модель o1, заявила о повышенном риске её применения для разработки биооружия, следует из системной карты o1. Стартап определил этот риск как «средний», что является наивысшим уровнем, который он когда-либо присваивал предыдущим ИИ-моделям.
Технологии201 день назад


Цифровой суверенитет
OpenAI официально признали, что новые модели "o1" могут значительно повысить риск создания биологического оружия со стороны злоумышленников, об этом сообщает Financial Times. Компания отнесла новые модели к категории "средних рисков" в контексте разработки химического, биологического, радиологического и ядерного CBRN оружия. Это наивысший уровень риска, который OpenAI когда-либо присваивала своим моделям. Несмотря на то, что OpenAI уверена в безопасности своих моделей, исследователям все-таки удается находить лазейки. Ранее бывший сотрудник OpenAI и cпециалист по ИИ заявил о том, что ведущие ИИ-лаборатории в США на данный момент уделяют недостаточно внимания вопросам безопасности своих разработок. #it
Технологии198 дней назад
Похожие новости



+10



+3



+17



+2



+1



+2

OpenAI анонсирует выпуск новой языковой модели с открытыми весами
Технологии
1 день назад




Модернизация риск-ориентированного подхода к проверкам бизнеса с использованием ИИ
Технологии
23 часа назад




OpenAI запускает генератор изображений на базе GPT-4o для всех пользователей
Технологии
1 день назад




Krea AI запускает генератор 3D-моделей из фото и текста
Технологии
1 день назад




OpenAI привлекла $40 млрд, став вторым по стоимости стартапом после SpaceX
Экономика
20 часов назад




«Авито» представило новые нейросети A-Vibe и A-Vision на базе Qwen 2.5
Технологии
1 день назад


