13 апреля, 17:58
OpenAI сокращает время тестирования ИИ-моделей на безопасность
Рука рынка
OpenAI планирует сократить время тестирование "безопасности" своих моделей - если верить FT, так Сэм Альтман хочет сократить отставание от конкурентов, высвободив дополнительные ресурсы компании для самой разработки новых решений. Если верить сми, ранее на выставление либеральных фильтров, политической цензуры и прочей околоайтишной скверны тратились месяцы, теперь на окалифорничивание LLM-моделей будут тратить всего несколько дней. Изменения еще толком не вступили в силу, а несколько мамкиных быдлокодеров уже анонимно разнылись через сми, что кому-то придет в голову идея весело использовать их нейросеть, и она станет "оружием". Несчастные позорники.
Новости в Мире IT
OpenAI стала тратить меньше времени на тесты безопасности ИИ-моделей Раньше на оценку рисков тратили полгода, теперь — неделю. Это сделано в том числе благодаря тому, что OpenAI заменила часть ручных тестов скриптами. Эксперты заметили, что в отчётах пропускают целые этапы тестов для новых моделей. Также в компании проверяют «контрольные точки», т.е. ранние версии моделей, а не финальные OpenAI уверяет, что они «почти одинаковы» . Компания вынуждена выпускать новые модели быстро, чтобы быть впереди конкурентов.
42 секунды
FT: OpenAI сократила время для тестирования своего ИИ на безопасность – OpenAI сократила время и ресурсы для тестов безопасности – На проведение «оценок» теперь дают всего несколько дней – Ранее сотрудники могли проводить тесты несколько месяцев – Тесты OpenAI для своих моделей стали менее тщательными – На выявление и снижение рисков дают мало ресурсов и др. – OpenAI нужно быстро выпускать модели из-за конкуренции – Потенциальная опасность ИИ растет вместе с мощностью – При этом рост спроса становится причиной для ускорения – Глобального стандарта для тестов на безопасность ИИ нет – Модель GPT-4 сотрудники OpenAI тестировали полгода – На тестирование новой модели o3 будет меньше недели
Forbes Russia
OpenAI сократила время и ресурсы на тестирование безопасности генеративных моделей искусственного интеллекта — сотрудникам и сторонним исследователям дали всего несколько дней на изучение ее новой большой языковой модели o3, в то время как раньше такие проверки занимали несколько месяцев, узнала Financial Times. По данным газеты, OpenAI, которая пытается сохранить лидирующие позиции на конкурентном рынке, хочет выпустить o3 уже на следующей неделе
GPT/ChatGPT/AI Central Александра Горного
OpenAI сократила время на проверку безопасности новых моделей FT пишет, что сотрудникам OpenAI теперь выделяют всего несколько дней на оценку рисков новых моделей AI, при том что раньше не это уходили месяцы. Чтобы сохранить конкурентное преимущество, компания старается выпускать модели быстрее, не затрачивая много времени и ресурсов на их проверку.
DNS_Club
OpenAI ускорила выпуск новых моделей, сократив время на тестирование безопасности Компания OpenAI значительно сократила сроки тестирования своих мощных языковых моделей, что вызвало обеспокоенность среди специалистов по ИИ-безопасности. Тестировщикам новой модели o3 в некоторых случаях предоставляется менее недели на проверку, тогда как ранее на аналогичные процедуры уходили месяцы. Читать далее
godnoTECH - Новости IT
OpenAI стала тратить меньше времени на тесты безопасности ИИ-моделей Раньше на оценку рисков тратили полгода, теперь — неделю! OpenAI заменила часть ручных тестов скриптами. Эксперты заметили, что в отчётах пропускают целые этапы тестов для новых моделей. Также в компании проверяют «контрольные точки», т.е. ранние версии моделей, а не финальные OpenAI уверяет, что они «почти одинаковы» . Компания вынуждена выпускать новые модели быстро, чтобы быть впереди конкурентов. — Бизнес есть бизнес — Не порядок! — А я всё равно ChatGPT не пользуюсь godnoTECH - Новости IT
Мамка блогеров
Настоящая война технологий разворачивается между странами в Искусственном Интеллекте. Недавно читала, как Китай призвал США к сотрудничеству в этом вопросе, чтобы избежать беды. В свете последних событий, думаю, с сотрудничеством всё понятно. Financial Times пишет, что OpenAI в погоне за главенством на рынке урезает сроки тестирования безопасности своих новых ИИ-моделей. Перед запуском GPT-4 компания в течение полугода делала тесты безопасности. На этой неделе должна выйти модель o3, на которую некоторым специалистам дали меньше недели. Так, вероятность, что технологии ИИ будут использованы в качестве оружия, намного выше. Стандартов и норм для тестирования безопасности ИИ пока не существует, законы в разработке, а подопытные — мы.
Похожие новости +2 +2 +2 +3 +2
OpenAI запускает инициативу Daybreak для автоматизации защиты от уязвимостей
Технологии
21 час назадСотрудники OpenAI реализовали акции на 6,6 миллиарда долларов
Экономика
12 часов назадThinking Machines анонсирует новые модели взаимодействия с ИИ для живого общения
Технологии
12 часов назадGoogle предотвращает первую атаку с использованием ИИ на двухфакторную аутентификацию
Технологии
2 часа назадОпрос Gartner: Внедрение ИИ не привело к росту рентабельности у 80 компаний
Экономика
1 день назад13-летний подросток обнаружил уязвимость в блокчейне TON с помощью ИИ и получил 4000 долларов
Происшествия
1 день назад