Загрузка...

Arcee AI: Virtuoso Large

Идентификатор:
Скопировано в буфер обмена!
Чат

Характеристики

Контекстное окно 131K

Дата релиза 05 мая 2025

Мультимодальность

Входящие данные:

  • Текст

Исходящие данные:

  • Текст

Цены

Оплата производится по факту за использованные токены. Цены зависят от размера контекста в промпте.

Тип
Стоимость
Входящие токены
Токены, полученные и обработанные моделью при анализе пользовательского запроса и контекста. Включают текст сообщения, предыдущую историю диалога и все передаваемые данные.
75 ₽ / 1M токенов
Исходящие токены
Токены, генерируемые моделью в виде ответа пользователю. Каждый символ, слово или часть ответа, созданные моделью, включаются в подсчёт выходных токенов.
121 ₽ / 1M токенов

Цены указаны в рублях и могут меняться в зависимости от курса валют

Описание модели

Virtuoso‑Large — это универсальная LLM высшего уровня от Arcee с 72 миллиардами параметров, настроенная для решения задач междисциплинарного рассуждения, креативного письма и корпоративного QA. В отличие от многих аналогов с 70 миллиардами параметров, она сохраняет контекст в 128 тысяч, унаследованный от Qwen 2.5, что позволяет ей полностью обрабатывать книги, кодовые базы или финансовые отчеты. Обучение сочетает дистилляцию DeepSeek R1, многократную эпоху контролируемой тонкой настройки и заключительный этап согласования DPO/RLHF, обеспечивая высокую производительность на тестах BIG‑Bench‑Hard, GSM‑8K и Needle‑In‑Haystack для длинного контекста. Компании используют Virtuoso‑Large как “резервный” мозг в конвейерах Conductor, когда другие SLM показывают низкую уверенность. Несмотря на свои размеры, агрессивные оптимизации KV‑кэша удерживают задержку первого токена в пределах нескольких секунд на узлах 8× H100, что делает её мощным инструментом для производственного использования.

API и примеры кода

Наш сервис предоставляет единый API, совместимый с OpenAI SDK. Просто укажите наш base_url и используйте ключ, полученный в личном кабинете.

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://routerai.ru/api/v1"
)

response = client.chat.completions.create(
    model="arcee-ai/virtuoso-large",
    messages=[
        {"role": "user", "content": "Hello, how are you?"}
    ]
)

print(response.choices[0].message.content)
import requests
import json

url = "https://routerai.ru/api/v1/chat/completions"
headers = {
    "Authorization": "Bearer YOUR_API_KEY",
    "Content-Type": "application/json"
}

data = {
    "model": "arcee-ai/virtuoso-large",
    "messages": [
        {"role": "user", "content": "Hello, how are you?"}
    ]
}

response = requests.post(url, headers=headers, json=data)
result = response.json()
print(json.dumps(result, indent=2))
curl -X POST "https://routerai.ru/api/v1/chat/completions" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "arcee-ai/virtuoso-large",
    "messages": [
      {"role": "user", "content": "Hello, how are you?"}
    ]
  }'