Загрузка...

Meta: Llama Guard 4 12B

Идентификатор:
Скопировано в буфер обмена!
Чат

Характеристики

Контекстное окно 164K

Дата релиза 30 апреля 2025

Мультимодальность

Входящие данные:

  • Изображения
  • Текст

Исходящие данные:

  • Текст

Цены

Оплата производится по факту за использованные токены. Цены зависят от размера контекста в промпте.

Тип
Стоимость
Входящие токены
Токены, полученные и обработанные моделью при анализе пользовательского запроса и контекста. Включают текст сообщения, предыдущую историю диалога и все передаваемые данные.
20 ₽ / 1M токенов
Исходящие токены
Токены, генерируемые моделью в виде ответа пользователю. Каждый символ, слово или часть ответа, созданные моделью, включаются в подсчёт выходных токенов.
20 ₽ / 1M токенов

Цены указаны в рублях и могут меняться в зависимости от курса валют

Описание модели

Llama Guard 4 — это многомодальная предварительно обученная модель, основанная на Llama 4 Scout, доработанная для классификации безопасности контента. Подобно предыдущим версиям, она может использоваться для классификации контента как во входных данных LLM (классификация запросов), так и в ответах LLM (классификация ответов). Она функционирует как LLM, генерируя текст на выходе, который указывает, является ли данный запрос или ответ безопасным или небезопасным, и если небезопасным, то также перечисляет категории контента, которые были нарушены.

Llama Guard 4 была настроена для защиты от стандартизированной таксономии угроз MLCommons и разработана для поддержки многомодальных возможностей Llama 4. В частности, она объединяет функции предыдущих моделей Llama Guard, обеспечивая модерацию контента для английского и нескольких поддерживаемых языков, а также улучшенные возможности обработки смешанных текстово-изображенческих запросов, включая несколько изображений. Кроме того, Llama Guard 4 интегрирована в Llama Moderations API, расширяя надежную классификацию безопасности на текст и изображения.

API и примеры кода

Наш сервис предоставляет единый API, совместимый с OpenAI SDK. Просто укажите наш base_url и используйте ключ, полученный в личном кабинете.

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://routerai.ru/api/v1"
)

response = client.chat.completions.create(
    model="meta-llama/llama-guard-4-12b",
    messages=[
        {"role": "user", "content": "Hello, how are you?"}
    ]
)

print(response.choices[0].message.content)
import requests
import json

url = "https://routerai.ru/api/v1/chat/completions"
headers = {
    "Authorization": "Bearer YOUR_API_KEY",
    "Content-Type": "application/json"
}

data = {
    "model": "meta-llama/llama-guard-4-12b",
    "messages": [
        {"role": "user", "content": "Hello, how are you?"}
    ]
}

response = requests.post(url, headers=headers, json=data)
result = response.json()
print(json.dumps(result, indent=2))
curl -X POST "https://routerai.ru/api/v1/chat/completions" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "meta-llama/llama-guard-4-12b",
    "messages": [
      {"role": "user", "content": "Hello, how are you?"}
    ]
  }'