Характеристики
Контекстное окно 1M
Дата релиза 05 апреля 2025
Мультимодальность
Входящие данные:
- Текст
- Изображения
Исходящие данные:
- Текст
Цены
Оплата производится по факту за использованные токены. Цены зависят от размера контекста в промпте.
Цены указаны в рублях и могут меняться в зависимости от курса валют
Описание модели
Llama 4 Maverick 17B Instruct (128E) — это высокоемкая мультимодальная языковая модель от Meta, построенная на архитектуре mixture-of-experts (MoE) с 128 экспертами и 17 миллиардами активных параметров на один проход (всего 400 миллиардов). Она поддерживает многоязычный текстовый и визуальный ввод, а также выдает многоязычный текст и код на 12 поддерживаемых языках. Оптимизированная для задач, связанных с визуально-языковым взаимодействием, Maverick настроена для поведения, подобного ассистенту, рассуждений на основе изображений и общего мультимодального взаимодействия.
Maverick обладает ранним объединением для естественной мультимодальности и контекстным окном на 1 миллион токенов. Она была обучена на тщательно отобранной смеси публичных, лицензированных и данных платформы Meta, охватывающей около 22 триллионов токенов, с отсечкой знаний в августе 2024 года. Выпущенная 5 апреля 2025 года под лицензией Llama 4 Community License, Maverick подходит для исследований и коммерческих приложений, требующих продвинутого мультимодального понимания и высокой производительности модели.
API и примеры кода
Наш сервис предоставляет единый API, совместимый с OpenAI SDK. Просто укажите наш base_url и используйте ключ, полученный в личном кабинете.
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://routerai.ru/api/v1"
)
response = client.chat.completions.create(
model="meta-llama/llama-4-maverick",
messages=[
{"role": "user", "content": "Hello, how are you?"}
]
)
print(response.choices[0].message.content)
import requests
import json
url = "https://routerai.ru/api/v1/chat/completions"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
data = {
"model": "meta-llama/llama-4-maverick",
"messages": [
{"role": "user", "content": "Hello, how are you?"}
]
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(json.dumps(result, indent=2))
curl -X POST "https://routerai.ru/api/v1/chat/completions" \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "meta-llama/llama-4-maverick",
"messages": [
{"role": "user", "content": "Hello, how are you?"}
]
}'