18 июня, 17:07

MiniMax запускает языковую модель M1, превосходящую конкурентов

Minimax выпустил открытую рассуждающую модель M1  Модель имеет контекстное окно 1 миллион токенов на вход и 80 тысяч токенов на выход.   По бенчмаркам M1 близка к Gemini 2.5 Pro, DeepSeek-R1 и Qwen3-235B в программировании и математике.  Отдельно разработчики хвастаются тем, что потратили на обучение M1 всего 534 тысячи долларов.  Код:   Демо:
GPT/ChatGPT/AI Central Александра Горного
GPT/ChatGPT/AI Central Александра Горного
Minimax выпустил открытую рассуждающую модель M1 Модель имеет контекстное окно 1 миллион токенов на вход и 80 тысяч токенов на выход. По бенчмаркам M1 близка к Gemini 2.5 Pro, DeepSeek-R1 и Qwen3-235B в программировании и математике. Отдельно разработчики хвастаются тем, что потратили на обучение M1 всего 534 тысячи долларов. Код: Демо:
Китайский стартап MiniMax выпустил «рассуждающую» модель M1. В тестах на программирование и математику она обошла DeepSeek-R1 и Qwen3-235B от Alibaba.  Длина контекста у неё тоже больше — до 1 млн токенов  около 750 тысяч слов   vc.ru/ai/2047318
vc.ru
vc.ru
Китайский стартап MiniMax выпустил «рассуждающую» модель M1. В тестах на программирование и математику она обошла DeepSeek-R1 и Qwen3-235B от Alibaba. Длина контекста у неё тоже больше — до 1 млн токенов около 750 тысяч слов vc.ru/ai/2047318
MiniMax выкатила «думающую» модель с контекстом в миллион токенов  На задачах по математике и коду MiniMax‑M1 опережает DeepSeek R1 и Qwen3‑235B, а ответы генерит в 4 раза дешевле, чем DeepSeek.  Протестировать можно бесплатно, код — на GitHub.
НейроВед | Дверь в мир нейросетей
НейроВед | Дверь в мир нейросетей
MiniMax выкатила «думающую» модель с контекстом в миллион токенов На задачах по математике и коду MiniMax‑M1 опережает DeepSeek R1 и Qwen3‑235B, а ответы генерит в 4 раза дешевле, чем DeepSeek. Протестировать можно бесплатно, код — на GitHub.
Китайцы снова удивляют: MiniMax выпустили открытую «думающую» модель с контекстом 1M    MiniMax-M1 — первая в мире гибридная reasoning-модель c 1M контекстом и 456 млрд параметров.    На бенчах по математике и кодингу обходит DeepSeek R1 и Qwen3-235B.     При этом в генерации требует в 4 раза меньше ресурсов, чем DeepSeek-R1.   Попробовать бесплатно можно здесь. GitHub тут.    Нейро́нити
Нейро́нити
Нейро́нити
Китайцы снова удивляют: MiniMax выпустили открытую «думающую» модель с контекстом 1M MiniMax-M1 — первая в мире гибридная reasoning-модель c 1M контекстом и 456 млрд параметров. На бенчах по математике и кодингу обходит DeepSeek R1 и Qwen3-235B. При этом в генерации требует в 4 раза меньше ресурсов, чем DeepSeek-R1. Попробовать бесплатно можно здесь. GitHub тут. Нейро́нити
Твой личный ИИ — отвечает, объясняет, помогает
1chatgpt.ru
1chatgpt.ru
Твой личный ИИ — отвечает, объясняет, помогает
Китайский стартап MiniMax представил открытый языковой модель MiniMax-M1, которая нацелена на то, чтобы превзойти Deepseek s R1!   Эта модель демонстрирует эффективность, близкую к Gemini 2.5 Pro, и способна работать с большими контекстными окнами.    Запуск MiniMax-M1 подчеркивает амбиции компании в конкурентной борьбе с ведущими игроками на рынке искусственного интеллекта и открывает новые горизонты для развития технологий AI.   #AI #MiniMax #технологии    AI OFFICIAL
PRO AI | ПОЛЕЗНЫЙ СОФТ | НОВОСТИ
PRO AI | ПОЛЕЗНЫЙ СОФТ | НОВОСТИ
Китайский стартап MiniMax представил открытый языковой модель MiniMax-M1, которая нацелена на то, чтобы превзойти Deepseek s R1! Эта модель демонстрирует эффективность, близкую к Gemini 2.5 Pro, и способна работать с большими контекстными окнами. Запуск MiniMax-M1 подчеркивает амбиции компании в конкурентной борьбе с ведущими игроками на рынке искусственного интеллекта и открывает новые горизонты для развития технологий AI. #AI #MiniMax #технологии AI OFFICIAL
БлоGнот
БлоGнот
MiniMax представил новую языковую модель M1, которая, по заявлениям компании, превосходит все закрытые китайские модели и показывает лучшие результаты, чем DeepSeek R1 в нескольких бенчмарках. Модель поддерживает контекстное окно в миллион токенов — в восемь раз больше, чем у DeepSeek R1, и в некоторых случаях требует всего 30% вычислительных ресурсов конкурента. Для обучения M1 использовали 512 графических процессоров Nvidia H800 стоимостью аренды $534,700. Общее количество параметров — 456 млрд, но на токен активируется только 45,9 млрд. Модель доступна на HuggingFace в двух вариантах бюджета на reasoning. Кроме этого, Minimax представили новую версию видео-модели Hailou O2. Первая версия была очень неплоха, кстати говоря, а сейчас обещают расширение 1080p и точное соблюдение сложных физических деталей.