Загрузка...

Z.ai: GLM 4.7 Flash

Идентификатор:
Скопировано в буфер обмена!
Чат

Характеристики

Контекстное окно 203K

Дата релиза 19 января 2026

Мультимодальность

Входящие данные:

  • Текст

Исходящие данные:

  • Текст

Цены

Оплата производится по факту за использованные токены.

Тип
Стоимость
Входящие токены
Токены, полученные и обработанные моделью при анализе пользовательского запроса и контекста. Включают текст сообщения, предыдущую историю диалога и все передаваемые данные.
5 ₽ / 1M токенов
Подробнее

Цены по провайдерам

RouterAI работает с несколькими провайдерами для обеспечения максимальной доступности и оптимальных цен.

  • 1
    Phala

    9 ₽
    Входящие
  • 2
    Z.AI

    6 ₽
    Входящие
  • 3
    Novita

    6 ₽
    Входящие
  • 4
    DeepInfra

    5 ₽
    Входящие
  • 5
    Venice

    12 ₽
    Входящие

Умная маршрутизация запросов

Ваши запросы автоматически направляются к провайдеру с самой низкой ценой. Если провайдер недоступен, система мгновенно переключается на следующего по цене, обеспечивая непрерывную работу вашего приложения без потери запросов.

  • Автоматический выбор
  • Отказоустойчивость
  • Лучшая цена
Исходящие токены
Токены, генерируемые моделью в виде ответа пользователю. Каждый символ, слово или часть ответа, созданные моделью, включаются в подсчёт выходных токенов.
39 ₽ / 1M токенов
Подробнее

Цены по провайдерам

RouterAI работает с несколькими провайдерами для обеспечения максимальной доступности и оптимальных цен.

  • 1
    Phala

    42 ₽
    Исходящие
  • 2
    Z.AI

    39 ₽
    Исходящие
  • 3
    Novita

    39 ₽
    Исходящие
  • 4
    DeepInfra

    39 ₽
    Исходящие
  • 5
    Venice

    49 ₽
    Исходящие

Умная маршрутизация запросов

Ваши запросы автоматически направляются к провайдеру с самой низкой ценой. Если провайдер недоступен, система мгновенно переключается на следующего по цене, обеспечивая непрерывную работу вашего приложения без потери запросов.

  • Автоматический выбор
  • Отказоустойчивость
  • Лучшая цена
Чтение кеша
Повторное использование кэшированного контента снижает затраты благодаря применению пониженного тарифа на эти токены.
1,00 ₽ / 1M токенов

Цены указаны в рублях и могут меняться в зависимости от курса валют

Описание модели

Как модель класса 30B SOTA, GLM-4.7-Flash предлагает новый вариант, который балансирует между производительностью и эффективностью. Она дополнительно оптимизирована для агентного кодирования, укрепляя возможности кодирования, планирования задач на длительный срок и сотрудничества с инструментами, и достигла ведущих результатов среди моделей с открытым исходным кодом того же размера на нескольких актуальных публичных рейтингах.

API и примеры кода

Наш сервис предоставляет единый API, совместимый с OpenAI SDK. Просто укажите наш base_url и используйте ключ, полученный в личном кабинете.

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://routerai.ru/api/v1"
)

response = client.chat.completions.create(
    model="z-ai/glm-4.7-flash",
    messages=[
        {"role": "user", "content": "Hello, how are you?"}
    ]
)

print(response.choices[0].message.content)
import requests
import json

url = "https://routerai.ru/api/v1/chat/completions"
headers = {
    "Authorization": "Bearer YOUR_API_KEY",
    "Content-Type": "application/json"
}

data = {
    "model": "z-ai/glm-4.7-flash",
    "messages": [
        {"role": "user", "content": "Hello, how are you?"}
    ]
}

response = requests.post(url, headers=headers, json=data)
result = response.json()
print(json.dumps(result, indent=2))
curl -X POST "https://routerai.ru/api/v1/chat/completions" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "z-ai/glm-4.7-flash",
    "messages": [
      {"role": "user", "content": "Hello, how are you?"}
    ]
  }'