

AI и точка.
OpenAI выпустили две новые открытые модели для задач классификации безопасности gpt oss safeguard основаны на семействе gps oss имеют те же размеры 20B и 120B Нейросети предназначены для применения правил безопасности к контенту фильтрации или маркировки Например форум об играх может настроить бота который будет распознавать обсуждения о читах или онлайн магазин сможет выявлять поддельные отзывы Веса выложены на Hugging Face

GPT/ChatGPT/AI Central Александра Горного
OpenAI выпустила бесплатные модели для модерации контента Модели gpt oss safeguard 120b и gpt oss safeguard 20b обучены искать опасный или неприемлемый контент Например они могут искать на сайте поддельные отзывы или токсичные комментарии Политику задаёт разработчик Как и базовая gpt oss модели умеют рассуждать и показывать цепочку мыслей которая привела к принятию решения Скачать можно тут huggingface co collections openai gpt oss safeguard


vc.ru
OpenAI выпустила открытые модели gpt oss safeguard которые оптимизированы для модерации контента отзывов комментариев и запросов пользователей Они учитывают индивидуальные правила площадок указанные разработчиками Веса моделей выложили на Hugging Face vc ru ai 2308077


Data Secrets
OpenAI релизнули две новые открытые модели gpt oss safeguard 20B и 120B Они основаны на gpt oss и обучены специально для задач классификации текста на предмет безопасности Важно что правила фильтрации не сразу зашиты в модель а определяются самим пользователем уже на этапе инференса и могут быть какими угодно Это что то новенькое И вообще кажется что область очень узкая Но на самом деле задач связанных со всевозможной модерацией контента вокруг море и с ростом популярности ИИ их становится еще больше И в этом смысле модели актуальные OpenAI пишут что работают они прямо отлично но только при условии что вы зададите четкие непротиворечивые инструкции Если политика продуманная то gpt oss safeguard якобы смогут обрабатывать даже сложные пограничные случаи Внутри стартапа эти модели уже частично используются для оценки безопасности запросов и элаймента моделей Это удобно потому что в разных случаях политика может быть разная для несовершеннолетних пользователей одна для самих моделей другая для бизнеса третья И обучать несколько разных классификаторов не нужно достаточно задать одной и той же модели разные инструкции и она подстроится openai com index introducing gpt oss safeguard
Похожие новости



+3



+3



+3



+3



+4



+3

OpenAI запускает инициативу Daybreak для автоматизации защиты от уязвимостей
Технологии
1 день назад


+3
Thinking Machines анонсирует новые модели взаимодействия с ИИ для живого общения
Технологии
1 день назад


+3
Google предотвращает первую атаку с использованием ИИ на двухфакторную аутентификацию
Технологии
22 часа назад


+3
Сотрудники OpenAI реализовали акции на 6,6 миллиарда долларов
Экономика
1 день назад


+3
Microsoft расследует вирус в Python-пакете, игнорирующий русскоязычные системы
Происшествия
13 часов назад


+4
13-летний подросток обнаружил уязвимость в блокчейне TON с помощью ИИ и получил 4000 долларов
Происшествия
1 день назад


+3