12 ноября, 08:42
Qwen 2.5 Coder 7B: Новая модель от Alibaba превосходит конкурентов в области LLM


AI Masterminds
Qwen 2.5 Coder 7B: Новый лидер среди Code LLMs! Qwen 2.5 Coder 7B превзошел OpenAI GPT-4 0613 и другие модели <33B, включая StartCoder, Codestral и Deepseek. Модель доступна под лицензией Apache 2.0. Ключевые факты: Три размера модели: 1.5B, 7B и 32B скоро . Поддержка до 128K токенов с YaRN. Обучение: 5.5 трлн токенов + пост-обучение на десятках миллионов примеров. Специальные пропорции данных 7:2:1 обеспечили превосходство. Поддержка 92+ языков программирования. И это ещё не всё! Чуть позже расскажем, с помощью какого приложения можно удобно запустить Qwen 2.5 Coder и начать работу прямо сейчас.
Технологии141 день назад

Русскоязычное киберсообщество
Разработчики Qwen это подразделение Alibaba, которое занимается LLM выложили новую серию своей модели Qwen2.5 под общим названием Coder. В линейке доступны модели 0.5B, 1.5B, 3B, 7B, 14B и 32B, причем по информации самих разработчиков версия Qwen2.5-Coder-32B-Instruct показывает лучшие результаты в тестах, чем GPT-4o и близкие по отношению к Claude 3.5 Sonnet. Все модели, как пишут, хорошо прибавили в написании кода и рассуждениях. Если учесть, что они все, кроме версии 3B, открыты по лицензии Apache 2.0, то вполне возможно рассмотреть их как замену проприетарным LLM.
Технологии141 день назад

Generative Deep Nets
Релизнулась ЛУЧШАЯ нейронка для кодинга — Qwen2.5-Coder-32B-Instruct потрошит даже ChatGPT-4о! Самое крутое — модель выложили в открытый доступ, она доступна ВСЕМ БЕСПЛАТНО! Модель обучали на 5,2 ТРИЛЛИОНА токенов. Для сравнения, ChatGPT-4o — только на сотнях миллиардов. Новенький ИИ в десятки раз круче пишет код и даже делает качественное ревью. Кодеры, забираем ультимативного помощника тут. Бэкдор
Технологии141 день назад

Айтишник | Апи | Технологии
Модель для генерации кода Qwen2.5-Coder-32B-Instruct вышла в опенсорс. По большинству бенчмарков она превосходит GPT-4o и догоняет Claude 3.5. Можно выбирать размер от 0.5B до 32B. Заявляют, что модель обучали на 5,2 трлн токенов, умеет писать с нуля и восстанавливать код. Айтишник Подписаться
Технологии140 дней назад


AI Product | Igor Akimov
Китайцы выпустили семейство открытых моделей Qwen-Coder-2.5, самая интересная из которых, на 32B параметров, лучшая из всего опенсорса, работает на уровне GPT-4o и Claude Sonnet хотя на картинке куча цифр выделено желтым неправильно . Можете запускать на каком-нибудь вашем облаке или сервере или даже локально, если видюха мощная или какой-нибудь Mac с 64 Гб памяти и всех разработчиков снабжать хорошей локальной генерацией кода. - Значительно улучшены генерация кода, осмысление кода и его исправление. - Не только расширяет возможности генерации кода, но и сохраняет свои сильные стороны в математике и общих знаниях. - Поддержка длинного контекста до 128K токенов. Скачивать с HuggingFace.
Технологии140 дней назад



БлоGнот
Разработчики Qwen это подразделение Alibaba, которое занимается LLM выложили новую серию своей модели Qwen2.5 под общим названием Coder. В линейке доступны модели 0.5B, 1.5B, 3B, 7B, 14B и 32B, причем по информации самих разработчиков версия Qwen2.5-Coder-32B-Instruct показывает лучшие результаты в тестах, чем GPT-4o и близкие по отношению к Claude 3.5 Sonnet. Все модели, как пишут, хорошо прибавили в написании кода и рассуждениях. Если учесть, что они все, кроме версии 3B, открыты по лицензии Apache 2.0, то вполне возможно рассмотреть их как замену проприетарным LLM.
Технологии141 день назад

NN
Кодовая модель Qwen2.5-Coder-32B-Instruct вышла в опенсорс. По большинству бенчмарков она превосходит GPT-4o и догоняет Claude 3.5. Можно выбирать размер от 0.5B до 32B. Заявляют, что модель обучали на 5,2 трлн токенов, так что шансы написать за вас хороший код у нее выше, чем у большинства конкурентов. Забираем тут.
Технологии141 день назад

Нейро (Midjourney)
ЛУЧШАЯ нейросеть для кодинга уже в сети! Qwen2.5-Coder-32B-Instruct вышла в открытый доступ и забирает лавры даже у ChatGPT-4о. Этот ИИ в разы лучше пишет код и делает ревью благодаря обучению на 5,2 триллионах токенов для сравнения, GPT-4o обучалась на сотнях миллиардов . Кодеры, забираем ультимативную тулзу тут!
Технологии140 дней назад

Нейросфера: нейросети, технологии
Релизнулась ЛУЧШАЯ нейронка для кодинга — Qwen2.5-Coder-32B-Instruct потрошит даже ChatGPT-4о! Самое крутое — модель выложили в открытый доступ, она доступна ВСЕМ БЕСПЛАТНО! Модель обучали на 5,2 ТРИЛЛИОНА токенов. Для сравнения, ChatGPT-4o — только на сотнях миллиардов. Новенький ИИ в десятки раз круче пишет код и даже делает качественное ревью. Кодеры, забираем ультимативного помощника тут.
Технологии140 дней назад

Psy Eyes
Alibaba: выпустили выпустили мощную модель для кодинга — Qwen 2.5 Coder 32B. На бенчах показывает себя лучше других опенсорсных и сопоставима по результатам с GPT-4o. Поддержка уже вшита в LMStudio, OpenWebUI + Ollama, и HuggingChat. Можно гонять версии под нужное количество VRAM вашей видюхи: модельный ряд включает в себя версии в размерах от 0.5B до 32B Q4_K_M квант 32B весит 20 ГБ и влезает в 4090 и контекстом от 32К до 128К можно кормить книжки . Есть онлайн демо с Artifacts. Такое же можно получить в интерфейсе OpenWebUI. Ещё можно прицепить к редактору кода Cursor. Анонс Веса модели Демо хаггинг Демо hugging.chat Гитхаб
Технологии140 дней назад

Похожие новости


+2



+2



+1



+2



+16



+11
Яндекс выпустил Instruct-версию YandexGPT 5 Lite в опенсорс
Технологии
16 часов назад




Google делает модель Gemini 2.5 Pro бесплатной для всех пользователей
Технологии
12 часов назад




«Авито» представило новые нейросети A-Vibe и A-Vision на базе Qwen 2.5
Технологии
5 часов назад




Сэма Альтмана уволили и вернули в OpenAI: внутренние конфликты и манипуляции
Происшествия
19 часов назад




«Авито» инвестирует 12 млрд рублей в генеративный ИИ и образовательные программы до 2028 года
Технологии
19 часов назад




Российские школьники завоевали награды на Пекинском молодежном конкурсе научного творчества
Общество
19 часов назад


