Характеристики
Контекстное окно 128K
Дата релиза 04 марта 2026
Мультимодальность
Входящие данные:
- Текст
Исходящие данные:
- Текст
Цены
Оплата производится по факту за использованные токены.
Цены по провайдерам
RouterAI работает с несколькими провайдерами для обеспечения максимальной доступности и оптимальных цен.
-
1
Inception
25 ₽Входящие
Умная маршрутизация запросов
Ваши запросы автоматически направляются к провайдеру с самой низкой ценой. Если провайдер недоступен, система мгновенно переключается на следующего по цене, обеспечивая непрерывную работу вашего приложения без потери запросов.
- Автоматический выбор
- Отказоустойчивость
- Лучшая цена
Цены по провайдерам
RouterAI работает с несколькими провайдерами для обеспечения максимальной доступности и оптимальных цен.
-
1
Inception
75 ₽Исходящие
Умная маршрутизация запросов
Ваши запросы автоматически направляются к провайдеру с самой низкой ценой. Если провайдер недоступен, система мгновенно переключается на следующего по цене, обеспечивая непрерывную работу вашего приложения без потери запросов.
- Автоматический выбор
- Отказоустойчивость
- Лучшая цена
Цены указаны в рублях и могут меняться в зависимости от курса валют
Описание модели
Mercury 2 — это чрезвычайно быстрое LLM для рассуждений и первое LLM с диффузией рассуждений (dLLM). Вместо последовательной генерации токенов, Mercury 2 производит и уточняет несколько токенов параллельно, достигая более 1000 токенов в секунду на стандартных GPU. Mercury 2 работает в 5 раз быстрее, чем ведущие оптимизированные по скорости LLM, такие как Claude 4.5 Haiku и GPT 5 Mini, при этом стоимость значительно ниже. Mercury 2 поддерживает настраиваемые уровни рассуждений, контекст на 128K, использование инструментов на родном уровне и вывод JSON, выровненный по схеме. Создан для рабочих процессов программирования, где задержка накапливается, а также для работы в реальном времени с голосом/поиском и агентными циклами. Совместим с OpenAI API. Подробнее читайте в блоге.
API и примеры кода
Наш сервис предоставляет единый API, совместимый с OpenAI SDK. Просто укажите наш base_url и используйте ключ, полученный в личном кабинете.
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://routerai.ru/api/v1"
)
response = client.chat.completions.create(
model="inception/mercury-2",
messages=[
{"role": "user", "content": "Hello, how are you?"}
]
)
print(response.choices[0].message.content)
import requests
import json
url = "https://routerai.ru/api/v1/chat/completions"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
data = {
"model": "inception/mercury-2",
"messages": [
{"role": "user", "content": "Hello, how are you?"}
]
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(json.dumps(result, indent=2))
curl -X POST "https://routerai.ru/api/v1/chat/completions" \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "inception/mercury-2",
"messages": [
{"role": "user", "content": "Hello, how are you?"}
]
}'