18 июня, 17:07
MiniMax запускает языковую модель M1, превосходящую конкурентов


GPT/ChatGPT/AI Central Александра Горного
Minimax выпустил открытую рассуждающую модель M1 Модель имеет контекстное окно 1 миллион токенов на вход и 80 тысяч токенов на выход. По бенчмаркам M1 близка к Gemini 2.5 Pro, DeepSeek-R1 и Qwen3-235B в программировании и математике. Отдельно разработчики хвастаются тем, что потратили на обучение M1 всего 534 тысячи долларов. Код: Демо:
Технологии1 день назад


vc.ru
Китайский стартап MiniMax выпустил «рассуждающую» модель M1. В тестах на программирование и математику она обошла DeepSeek-R1 и Qwen3-235B от Alibaba. Длина контекста у неё тоже больше — до 1 млн токенов около 750 тысяч слов vc.ru/ai/2047318
Технологии1 день назад


НейроВед | Дверь в мир нейросетей
MiniMax выкатила «думающую» модель с контекстом в миллион токенов На задачах по математике и коду MiniMax‑M1 опережает DeepSeek R1 и Qwen3‑235B, а ответы генерит в 4 раза дешевле, чем DeepSeek. Протестировать можно бесплатно, код — на GitHub.
Технологии1 день назад


Нейро́нити
Китайцы снова удивляют: MiniMax выпустили открытую «думающую» модель с контекстом 1M MiniMax-M1 — первая в мире гибридная reasoning-модель c 1M контекстом и 456 млрд параметров. На бенчах по математике и кодингу обходит DeepSeek R1 и Qwen3-235B. При этом в генерации требует в 4 раза меньше ресурсов, чем DeepSeek-R1. Попробовать бесплатно можно здесь. GitHub тут. Нейро́нити
Технологии7 часов назад



PRO AI | ПОЛЕЗНЫЙ СОФТ | НОВОСТИ
Китайский стартап MiniMax представил открытый языковой модель MiniMax-M1, которая нацелена на то, чтобы превзойти Deepseek s R1! Эта модель демонстрирует эффективность, близкую к Gemini 2.5 Pro, и способна работать с большими контекстными окнами. Запуск MiniMax-M1 подчеркивает амбиции компании в конкурентной борьбе с ведущими игроками на рынке искусственного интеллекта и открывает новые горизонты для развития технологий AI. #AI #MiniMax #технологии AI OFFICIAL
Технологии1 день назад

БлоGнот
MiniMax представил новую языковую модель M1, которая, по заявлениям компании, превосходит все закрытые китайские модели и показывает лучшие результаты, чем DeepSeek R1 в нескольких бенчмарках. Модель поддерживает контекстное окно в миллион токенов — в восемь раз больше, чем у DeepSeek R1, и в некоторых случаях требует всего 30% вычислительных ресурсов конкурента. Для обучения M1 использовали 512 графических процессоров Nvidia H800 стоимостью аренды $534,700. Общее количество параметров — 456 млрд, но на токен активируется только 45,9 млрд. Модель доступна на HuggingFace в двух вариантах бюджета на reasoning. Кроме этого, Minimax представили новую версию видео-модели Hailou O2. Первая версия была очень неплоха, кстати говоря, а сейчас обещают расширение 1080p и точное соблюдение сложных физических деталей.
Технологии11 часов назад
Похожие новости



+4



+14



+45



+6



+10



+3

Google анонсировала превью-версию Gemini 2.5 Flash-Lite с улучшенными возможностями
Технологии
14 часов назад




Meta предлагает $100 млн сотрудникам OpenAI, но никто не уходит
Технологии
12 часов назад




OpenAI заключила контракт с Минобороны США на $200 млн для разработки ИИ
Технологии
1 день назад




Искусственный интеллект угрожает рабочим местам 'белых воротничков' в ближайшие годы
Технологии
1 день назад




Авито запускает бесплатный тренажёр для тестирования рекламных алгоритмов
Технологии
14 часов назад




Китайская компания Twopan представила Nano SSD весом 5 граммов с 512 ГБ памяти и биометрической защитой
Технологии
1 день назад


