Скопировано в буфер обмена!
NVIDIA Nemotron 3 Super — это открытая гибридная модель MoE с 120 миллиардами параметров, активирующая всего 12 миллиардов параметров для максимальной вычислительной эффективности и точности в сложных многоагентных приложениях. Построенная на гибридной архитектуре Mamba-Transformer Mixture-of-Experts с многотокеновым предсказанием (MTP), она обеспечивает более чем на 50% более высокую генерацию токенов по сравнению с ведущими открытыми моделями.
Модель обладает контекстным окном на 1 миллион токенов для долгосрочной согласованности агентов, междокументального рассуждения и многократного планирования задач. Латентный MoE позволяет вызывать 4 эксперта по стоимости вывода всего одного, улучшая интеллект и обобщение. Обучение с подкреплением в нескольких средах, охватывающее более 10 сред, обеспечивает ведущую точность на бенчмарках, включая AIME 2025, TerminalBench и SWE-Bench Verified.
Полностью открытая с весами, наборами данных и рецептами под лицензией NVIDIA Open License, Nemotron 3 Super позволяет легко настраивать и безопасно развертывать её в любом месте — от рабочей станции до облака.