Загрузка...

Z.AI: GLM 4.5

Идентификатор:
Скопировано в буфер обмена!
Чат

Характеристики

Контекстное окно 131K

Дата релиза 25 июля 2025

Мультимодальность

Входящие данные:

  • Текст

Исходящие данные:

  • Текст

Цены

Оплата производится по факту за использованные токены. Цены зависят от размера контекста в промпте.

Тип
Стоимость
Входящие токены
Токены, полученные и обработанные моделью при анализе пользовательского запроса и контекста. Включают текст сообщения, предыдущую историю диалога и все передаваемые данные.
60 ₽ / 1M токенов
Исходящие токены
Токены, генерируемые моделью в виде ответа пользователю. Каждый символ, слово или часть ответа, созданные моделью, включаются в подсчёт выходных токенов.
222 ₽ / 1M токенов
Чтение кеша
Повторное использование кэшированного контента снижает затраты благодаря применению пониженного тарифа на эти токены.
11 ₽ / 1M токенов

Цены указаны в рублях и могут меняться в зависимости от курса валют

Описание модели

GLM-4.5 — наша последняя флагманская базовая модель, специально созданная для приложений на основе агентов. Она использует архитектуру Mixture-of-Experts (MoE) и поддерживает длину контекста до 128 тысяч токенов. GLM-4.5 обеспечивает значительно улучшенные возможности в области рассуждений, генерации кода и согласования агентов. Она поддерживает гибридный режим вывода с двумя опциями: “режим размышления”, предназначенный для сложных рассуждений и использования инструментов, и “режим без размышлений”, оптимизированный для мгновенных ответов. Пользователи могут управлять поведением рассуждений с помощью булевой переменной reasoning enabled.

API и примеры кода

Наш сервис предоставляет единый API, совместимый с OpenAI SDK. Просто укажите наш base_url и используйте ключ, полученный в личном кабинете.

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://routerai.ru/api/v1"
)

response = client.chat.completions.create(
    model="z-ai/glm-4.5",
    messages=[
        {"role": "user", "content": "Hello, how are you?"}
    ]
)

print(response.choices[0].message.content)
import requests
import json

url = "https://routerai.ru/api/v1/chat/completions"
headers = {
    "Authorization": "Bearer YOUR_API_KEY",
    "Content-Type": "application/json"
}

data = {
    "model": "z-ai/glm-4.5",
    "messages": [
        {"role": "user", "content": "Hello, how are you?"}
    ]
}

response = requests.post(url, headers=headers, json=data)
result = response.json()
print(json.dumps(result, indent=2))
curl -X POST "https://routerai.ru/api/v1/chat/completions" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "z-ai/glm-4.5",
    "messages": [
      {"role": "user", "content": "Hello, how are you?"}
    ]
  }'