Характеристики
Контекстное окно 131K
Дата релиза 18 сентября 2025
Мультимодальность
Входящие данные:
- Текст
Исходящие данные:
- Текст
Цены
Оплата производится по факту за использованные токены. Цены зависят от размера контекста в промпте.
Цены указаны в рублях и могут меняться в зависимости от курса валют
Описание модели
Tongyi DeepResearch — это агентная крупная языковая модель, разработанная Tongyi Lab, с общим количеством параметров в 30 миллиардов, из которых активируется только 3 миллиарда на каждый токен. Она оптимизирована для долгосрочных задач, требующих глубокого поиска информации, и демонстрирует передовую производительность на таких тестах, как Humanity’s Last Exam, BrowserComp, BrowserComp-ZH, WebWalkerQA, GAIA, xbench-DeepSearch и FRAMES. Это делает её превосходной для сложного агентного поиска, рассуждений и многослойного решения проблем по сравнению с предыдущими моделями.
Модель включает полностью автоматизированный синтетический конвейер данных для масштабируемого предобучения, тонкой настройки и обучения с подкреплением. Она использует крупномасштабное непрерывное предобучение на разнообразных агентных данных для улучшения рассуждений и поддержания актуальности. Также в ней реализовано сквозное обучение с подкреплением на политике с использованием индивидуализированной оптимизации групповой относительной политики, включая градиенты на уровне токенов и фильтрацию отрицательных образцов для стабильного обучения. Модель поддерживает ReAct для проверки основных способностей и режим ‘Heavy’ на основе IterResearch для максимальной производительности за счет масштабирования во время тестирования. Она идеально подходит для продвинутых исследовательских агентов, использования инструментов и интенсивных рабочих процессов вывода.
API и примеры кода
Наш сервис предоставляет единый API, совместимый с OpenAI SDK. Просто укажите наш base_url и используйте ключ, полученный в личном кабинете.
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://routerai.ru/api/v1"
)
response = client.chat.completions.create(
model="alibaba/tongyi-deepresearch-30b-a3b",
messages=[
{"role": "user", "content": "Hello, how are you?"}
]
)
print(response.choices[0].message.content)
import requests
import json
url = "https://routerai.ru/api/v1/chat/completions"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
data = {
"model": "alibaba/tongyi-deepresearch-30b-a3b",
"messages": [
{"role": "user", "content": "Hello, how are you?"}
]
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(json.dumps(result, indent=2))
curl -X POST "https://routerai.ru/api/v1/chat/completions" \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "alibaba/tongyi-deepresearch-30b-a3b",
"messages": [
{"role": "user", "content": "Hello, how are you?"}
]
}'