Загрузка...

NVIDIA: Llama 3.3 Nemotron Super 49B V1.5

Идентификатор:
Скопировано в буфер обмена!
Чат

Характеристики

Контекстное окно 131K

Дата релиза 10 октября 2025

Мультимодальность

Входящие данные:

  • Текст

Исходящие данные:

  • Текст

Цены

Оплата производится по факту за использованные токены. Цены зависят от размера контекста в промпте.

Тип
Стоимость
Входящие токены
Токены, полученные и обработанные моделью при анализе пользовательского запроса и контекста. Включают текст сообщения, предыдущую историю диалога и все передаваемые данные.
10 ₽ / 1M токенов
Исходящие токены
Токены, генерируемые моделью в виде ответа пользователю. Каждый символ, слово или часть ответа, созданные моделью, включаются в подсчёт выходных токенов.
40 ₽ / 1M токенов

Цены указаны в рублях и могут меняться в зависимости от курса валют

Описание модели

Llama-3.3-Nemotron-Super-49B-v1.5 — это модель с 49 миллиардами параметров, ориентированная на английский язык, предназначенная для рассуждений и общения, созданная на основе Meta’s Llama-3.3-70B-Instruct с контекстом в 128K. Она дополнительно обучена для агентных рабочих процессов (RAG, вызов инструментов) через SFT в областях математики, программирования, науки и многократного общения, с последующими несколькими этапами RL; Оптимизация предпочтений с учетом вознаграждения (RPO) для согласования, RL с проверяемыми вознаграждениями (RLVR) для пошагового рассуждения и итеративное DPO для уточнения поведения при использовании инструментов. Поиск нейронной архитектуры, основанный на дистилляции («Puzzle»), заменяет некоторые блоки внимания и изменяет ширину FFN, чтобы уменьшить объем памяти и повысить производительность, что позволяет использовать модель на одном GPU (H100/H200), сохраняя качество следования инструкциям и CoT.

Во внутренних оценках (NeMo-Skills, до 16 запусков, temp = 0.6, top_p = 0.95) модель демонстрирует сильные результаты в рассуждениях и программировании, например, MATH500 pass@1 = 97.4, AIME-2024 = 87.5, AIME-2025 = 82.71, GPQA = 71.97, LiveCodeBench (24.10–25.02) = 73.58 и MMLU-Pro (CoT) = 79.53. Модель ориентирована на практическую эффективность вывода (высокое количество токенов в секунду, уменьшенное использование VRAM) с поддержкой Transformers/vLLM и явными режимами «включения/выключения рассуждений» (по умолчанию сначала чат, рекомендуется жадный режим при отключении). Подходит для создания агентов, ассистентов и систем извлечения с длинным контекстом, где важны сбалансированная точность и стоимость, а также надежное использование инструментов.

API и примеры кода

Наш сервис предоставляет единый API, совместимый с OpenAI SDK. Просто укажите наш base_url и используйте ключ, полученный в личном кабинете.

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://routerai.ru/api/v1"
)

response = client.chat.completions.create(
    model="nvidia/llama-3.3-nemotron-super-49b-v1.5",
    messages=[
        {"role": "user", "content": "Hello, how are you?"}
    ]
)

print(response.choices[0].message.content)
import requests
import json

url = "https://routerai.ru/api/v1/chat/completions"
headers = {
    "Authorization": "Bearer YOUR_API_KEY",
    "Content-Type": "application/json"
}

data = {
    "model": "nvidia/llama-3.3-nemotron-super-49b-v1.5",
    "messages": [
        {"role": "user", "content": "Hello, how are you?"}
    ]
}

response = requests.post(url, headers=headers, json=data)
result = response.json()
print(json.dumps(result, indent=2))
curl -X POST "https://routerai.ru/api/v1/chat/completions" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "nvidia/llama-3.3-nemotron-super-49b-v1.5",
    "messages": [
      {"role": "user", "content": "Hello, how are you?"}
    ]
  }'