12 ноября, 08:42
Qwen 2.5 Coder 7B: Новая модель от Alibaba превосходит конкурентов в области LLM


AI Masterminds
Qwen 2.5 Coder 7B: Новый лидер среди Code LLMs! Qwen 2.5 Coder 7B превзошел OpenAI GPT-4 0613 и другие модели <33B, включая StartCoder, Codestral и Deepseek. Модель доступна под лицензией Apache 2.0. Ключевые факты: Три размера модели: 1.5B, 7B и 32B скоро . Поддержка до 128K токенов с YaRN. Обучение: 5.5 трлн токенов + пост-обучение на десятках миллионов примеров. Специальные пропорции данных 7:2:1 обеспечили превосходство. Поддержка 92+ языков программирования. И это ещё не всё! Чуть позже расскажем, с помощью какого приложения можно удобно запустить Qwen 2.5 Coder и начать работу прямо сейчас.
Технологии140 дней назад

Русскоязычное киберсообщество
Разработчики Qwen это подразделение Alibaba, которое занимается LLM выложили новую серию своей модели Qwen2.5 под общим названием Coder. В линейке доступны модели 0.5B, 1.5B, 3B, 7B, 14B и 32B, причем по информации самих разработчиков версия Qwen2.5-Coder-32B-Instruct показывает лучшие результаты в тестах, чем GPT-4o и близкие по отношению к Claude 3.5 Sonnet. Все модели, как пишут, хорошо прибавили в написании кода и рассуждениях. Если учесть, что они все, кроме версии 3B, открыты по лицензии Apache 2.0, то вполне возможно рассмотреть их как замену проприетарным LLM.
Технологии139 дней назад

Generative Deep Nets
Релизнулась ЛУЧШАЯ нейронка для кодинга — Qwen2.5-Coder-32B-Instruct потрошит даже ChatGPT-4о! Самое крутое — модель выложили в открытый доступ, она доступна ВСЕМ БЕСПЛАТНО! Модель обучали на 5,2 ТРИЛЛИОНА токенов. Для сравнения, ChatGPT-4o — только на сотнях миллиардов. Новенький ИИ в десятки раз круче пишет код и даже делает качественное ревью. Кодеры, забираем ультимативного помощника тут. Бэкдор
Технологии139 дней назад

Айтишник | Апи | Технологии
Модель для генерации кода Qwen2.5-Coder-32B-Instruct вышла в опенсорс. По большинству бенчмарков она превосходит GPT-4o и догоняет Claude 3.5. Можно выбирать размер от 0.5B до 32B. Заявляют, что модель обучали на 5,2 трлн токенов, умеет писать с нуля и восстанавливать код. Айтишник Подписаться
Технологии139 дней назад


AI Product | Igor Akimov
Китайцы выпустили семейство открытых моделей Qwen-Coder-2.5, самая интересная из которых, на 32B параметров, лучшая из всего опенсорса, работает на уровне GPT-4o и Claude Sonnet хотя на картинке куча цифр выделено желтым неправильно . Можете запускать на каком-нибудь вашем облаке или сервере или даже локально, если видюха мощная или какой-нибудь Mac с 64 Гб памяти и всех разработчиков снабжать хорошей локальной генерацией кода. - Значительно улучшены генерация кода, осмысление кода и его исправление. - Не только расширяет возможности генерации кода, но и сохраняет свои сильные стороны в математике и общих знаниях. - Поддержка длинного контекста до 128K токенов. Скачивать с HuggingFace.
Технологии139 дней назад



БлоGнот
Разработчики Qwen это подразделение Alibaba, которое занимается LLM выложили новую серию своей модели Qwen2.5 под общим названием Coder. В линейке доступны модели 0.5B, 1.5B, 3B, 7B, 14B и 32B, причем по информации самих разработчиков версия Qwen2.5-Coder-32B-Instruct показывает лучшие результаты в тестах, чем GPT-4o и близкие по отношению к Claude 3.5 Sonnet. Все модели, как пишут, хорошо прибавили в написании кода и рассуждениях. Если учесть, что они все, кроме версии 3B, открыты по лицензии Apache 2.0, то вполне возможно рассмотреть их как замену проприетарным LLM.
Технологии139 дней назад

NN
Кодовая модель Qwen2.5-Coder-32B-Instruct вышла в опенсорс. По большинству бенчмарков она превосходит GPT-4o и догоняет Claude 3.5. Можно выбирать размер от 0.5B до 32B. Заявляют, что модель обучали на 5,2 трлн токенов, так что шансы написать за вас хороший код у нее выше, чем у большинства конкурентов. Забираем тут.
Технологии139 дней назад

Нейро (Midjourney)
ЛУЧШАЯ нейросеть для кодинга уже в сети! Qwen2.5-Coder-32B-Instruct вышла в открытый доступ и забирает лавры даже у ChatGPT-4о. Этот ИИ в разы лучше пишет код и делает ревью благодаря обучению на 5,2 триллионах токенов для сравнения, GPT-4o обучалась на сотнях миллиардов . Кодеры, забираем ультимативную тулзу тут!
Технологии139 дней назад

Нейросфера: нейросети, технологии
Релизнулась ЛУЧШАЯ нейронка для кодинга — Qwen2.5-Coder-32B-Instruct потрошит даже ChatGPT-4о! Самое крутое — модель выложили в открытый доступ, она доступна ВСЕМ БЕСПЛАТНО! Модель обучали на 5,2 ТРИЛЛИОНА токенов. Для сравнения, ChatGPT-4o — только на сотнях миллиардов. Новенький ИИ в десятки раз круче пишет код и даже делает качественное ревью. Кодеры, забираем ультимативного помощника тут.
Технологии139 дней назад

Psy Eyes
Alibaba: выпустили выпустили мощную модель для кодинга — Qwen 2.5 Coder 32B. На бенчах показывает себя лучше других опенсорсных и сопоставима по результатам с GPT-4o. Поддержка уже вшита в LMStudio, OpenWebUI + Ollama, и HuggingChat. Можно гонять версии под нужное количество VRAM вашей видюхи: модельный ряд включает в себя версии в размерах от 0.5B до 32B Q4_K_M квант 32B весит 20 ГБ и влезает в 4090 и контекстом от 32К до 128К можно кормить книжки . Есть онлайн демо с Artifacts. Такое же можно получить в интерфейсе OpenWebUI. Ещё можно прицепить к редактору кода Cursor. Анонс Веса модели Демо хаггинг Демо hugging.chat Гитхаб
Технологии139 дней назад

Похожие новости



+8



+5



+8



+6



+7

+22

Гуманоидный робот G1 дебютирует на Неделе моды в Шанхае
Технологии
1 день назад




ЦБ внедряет роботов для обработки обращений граждан и организаций
Общество
1 день назад




H&M запускает цифровых двойников моделей с использованием ИИ
Технологии
1 день назад




Ярославская область переходит на электронные медицинские карты, несмотря на проблемы с доступом к информации
Общество
1 день назад




В Рязани обсудили новые формы взаимодействия власти и граждан на конференции
Общество
1 день назад




Спрос на айтишников в сфере ИИ в России достигает рекордных зарплат
Экономика
22 часа назад
