Скопировано в буфер обмена!
MiniMax-M1 — это крупномасштабная модель рассуждений с открытым весом, разработанная для расширенного контекста и высокоэффективного вывода. Она использует гибридную архитектуру Mixture-of-Experts (MoE) в сочетании с пользовательским механизмом “молниеносного внимания”, что позволяет обрабатывать длинные последовательности — до 1 миллиона токенов — при сохранении конкурентоспособной эффективности FLOP. С общим количеством параметров 456 миллиардов и 45,9 миллиарда активных на токен, этот вариант оптимизирован для сложных, многошаговых задач рассуждения.
Обученная с помощью пользовательского конвейера обучения с подкреплением (CISPO), M1 превосходит в понимании длинного контекста, программной инженерии, использовании агентных инструментов и математическом рассуждении. Тесты показывают высокие результаты на FullStackBench, SWE-bench, MATH, GPQA и TAU-Bench, часто превосходя другие открытые модели, такие как DeepSeek R1 и Qwen3-235B.