Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (72)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Qwen
262K

Qwen3-30B-A3B-Instruct-2507 — это языковая модель с 30,5 миллиардами параметров, основанная на смеси экспертов от Qwen, с 3,3 миллиардами активных параметров на каждое предсказание. Она работает в режиме без мышления и предназначена для высококачественного выполнения инструкций, многоязычного понимания и использования инструментов. После обучения на данных инструкций она демонстрирует конкурентоспособные результаты в различных тестах на рассуждение (AIME, ZebraLogic), программирование (MultiPL-E, LiveCodeBench) и согласование (IFEval, WritingBench). Она превосходит свою неинструктивную версию в субъективных и открытых задачах, сохраняя при этом сильные фактические и программные возможности.

Входные данные:
8 ₽ / 1M
Текст
Исходящие данные:
29 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
8 ₽
Исходящие токены за 1M:
29 ₽
Скопировано в буфер обмена!
Z AI
131K

GLM-4.5 — наша последняя флагманская базовая модель, специально созданная для приложений на основе агентов. Она использует архитектуру Mixture-of-Experts (MoE) и поддерживает длину контекста до 128 тысяч токенов. GLM-4.5 обеспечивает значительно улучшенные возможности в области рассуждений, генерации кода и согласования агентов. Она поддерживает гибридный режим вывода с двумя опциями: “режим размышления”, предназначенный для сложных рассуждений и использования инструментов, и “режим без размышлений”, оптимизированный для мгновенных ответов. Пользователи могут управлять поведением рассуждений с помощью булевой переменной reasoning enabled.

Входные данные:
58 ₽ / 1M
Текст
Исходящие данные:
213 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
58 ₽
Исходящие токены за 1M:
213 ₽
Скопировано в буфер обмена!
Z AI
131K

GLM-4.5-Air — это облегченный вариант нашей последней флагманской модели, также специально созданный для приложений, ориентированных на агентов. Как и GLM-4.5, он использует архитектуру Mixture-of-Experts (MoE), но с более компактным размером параметров. GLM-4.5-Air также поддерживает гибридные режимы вывода, предлагая “режим мышления” для продвинутого рассуждения и использования инструментов, а также “режим без мышления” для взаимодействия в реальном времени. Пользователи могут управлять поведением рассуждения с помощью булевой переменной reasoning enabled.

Входные данные:
12 ₽ / 1M
Текст
Исходящие данные:
82 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
12 ₽
Исходящие токены за 1M:
82 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen3-235B-A22B-Thinking-2507 — это высокопроизводительная языковая модель типа Mixture-of-Experts (MoE) с открытым весом, оптимизированная для сложных задач рассуждения. Она активирует 22 миллиарда из своих 235 миллиардов параметров за один проход и изначально поддерживает до 262 144 токенов контекста. Этот вариант, предназначенный исключительно для «мышления», улучшает структурированное логическое рассуждение, математику, науку и генерацию длинных текстов, демонстрируя высокие результаты в тестах AIME, SuperGPQA, LiveCodeBench и MMLU-Redux. Он включает специальный режим рассуждения (</think>) и разработан для вывода с высоким количеством токенов (до 81 920 токенов) в сложных областях.

Модель настроена на выполнение инструкций и превосходно справляется с пошаговым рассуждением, использованием инструментов, агентными рабочими процессами и многоязычными задачами. Этот выпуск представляет собой самую мощную открытую версию в серии Qwen3-235B, превосходя многие закрытые модели в случаях использования структурированного рассуждения.

Входные данные:
10 ₽ / 1M
Текст
Исходящие данные:
58 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
10 ₽
Исходящие токены за 1M:
58 ₽
Скопировано в буфер обмена!
Z AI
128K

GLM 4 32B — это экономически эффективная базовая языковая модель.

Она может эффективно выполнять сложные задачи и обладает значительно улучшенными возможностями в использовании инструментов, онлайн-поиске и интеллектуальных задачах, связанных с кодом.

Её разработала та же лаборатория, что и модели thudm.

Входные данные:
9 ₽ / 1M
Текст
Исходящие данные:
9 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
9 ₽
Скопировано в буфер обмена!
Qwen
262K

Qwen3-Coder-480B-A35B-Instruct — это модель генерации кода типа Mixture-of-Experts (MoE), разработанная командой Qwen. Она оптимизирована для агентных задач программирования, таких как вызов функций, использование инструментов и рассуждение в длинном контексте по репозиториям. Модель имеет 480 миллиардов общих параметров, из которых 35 миллиардов активны при каждом прямом проходе (8 из 160 экспертов).

Цены на конечные точки Alibaba зависят от длины контекста. Как только запрос превышает 128 тысяч входных токенов, применяется более высокая цена.

Входные данные:
29 ₽ / 1M
Текст
Исходящие данные:
97 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
29 ₽
Исходящие токены за 1M:
97 ₽
Скопировано в буфер обмена!
Qwen
262K

Qwen3-Coder-480B-A35B-Instruct — это модель генерации кода типа Mixture-of-Experts (MoE), разработанная командой Qwen. Она оптимизирована для агентных задач программирования, таких как вызов функций, использование инструментов и рассуждение в длинных контекстах по репозиториям. Модель включает 480 миллиардов параметров, из которых 35 миллиардов активны на каждый прямой проход (8 из 160 экспертов).

Цены на конечные точки Alibaba зависят от длины контекста. Когда запрос превышает 128 тысяч входных токенов, применяется более высокая цена.

Входные данные:
29 ₽ / 1M
Текст
Исходящие данные:
97 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
29 ₽
Исходящие токены за 1M:
97 ₽
Скопировано в буфер обмена!
ByteDance
128K

UI-TARS-1.5 — это мультимодальный агент для работы с визуально-языковыми интерфейсами, оптимизированный для GUI-сред, включая настольные интерфейсы, веб-браузеры, мобильные системы и игры. Разработанный компанией ByteDance, он основывается на фреймворке UI-TARS с использованием обучения с подкреплением для рассуждений, что позволяет эффективно планировать и выполнять действия в виртуальных интерфейсах.

Эта модель достигает передовых результатов на ряде интерактивных и привязанных к контексту тестов, включая OSworld, WebVoyager, AndroidWorld и ScreenSpot. Она также демонстрирует идеальное выполнение задач в различных играх на Poki и превосходит предыдущие модели в задачах агента Minecraft. UI-TARS-1.5 поддерживает декомпозицию мыслей во время вывода и показывает сильное масштабирование среди вариантов, причем версия 1.5 значительно превосходит по производительности более ранние контрольные точки 72B и 7B.

Входные данные:
9 ₽ / 1M
Изображения
Текст
Исходящие данные:
19 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
19 ₽
Скопировано в буфер обмена!
Google
1M

Gemini 2.5 Flash-Lite — это облегчённая модель рассуждений в семействе Gemini 2.5, оптимизированная для сверхнизкой задержки и экономической эффективности. Она обеспечивает улучшенную пропускную способность, более быстрое генерирование токенов и лучшую производительность по общим тестам по сравнению с более ранними моделями Flash. По умолчанию “мышление” (т.е. многократное рассуждение) отключено, чтобы приоритет отдавался скорости, но разработчики могут включить его через параметр Reasoning API, чтобы избирательно обменивать стоимость на интеллект.

Входные данные:
9 ₽ / 1M
Текст
Изображения
Файл
Аудио
Видео
Исходящие данные:
38 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
38 ₽
Скопировано в буфер обмена!
Qwen
262K

Qwen3-235B-A22B-Instruct-2507 — это многоязычная языковая модель с настройкой на выполнение инструкций, основанная на архитектуре Qwen3-235B, с 22 миллиардами активных параметров на каждый проход вперед. Она оптимизирована для генерации текста общего назначения, включая следование инструкциям, логическое рассуждение, математику, код и использование инструментов. Модель поддерживает нативную длину контекста в 262 тысячи и не реализует “режим мышления” ( блоки).

По сравнению с базовым вариантом, эта версия обеспечивает значительные улучшения в охвате знаний, рассуждениях на длинных контекстах, оценках кодирования и согласованности с открытыми задачами. Она особенно сильна в многоязычном понимании, математических рассуждениях (например, AIME, HMMT) и оценках согласованности, таких как Arena-Hard и WritingBench.

Входные данные:
6 ₽ / 1M
Текст
Исходящие данные:
9 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
6 ₽
Исходящие токены за 1M:
9 ₽
Скопировано в буфер обмена!
Moonshot AI
131K

Kimi K2 Instruct — это крупномасштабная языковая модель с архитектурой Mixture-of-Experts (MoE), разработанная компанией Moonshot AI, с общим числом параметров в 1 триллион и 32 миллиарда активных параметров на каждый проход. Она оптимизирована для агентных возможностей, включая продвинутое использование инструментов, рассуждение и синтез кода. Kimi K2 превосходит по многим критериям, особенно в области кодирования (LiveCodeBench, SWE-bench), рассуждений (ZebraLogic, GPQA) и использования инструментов (Tau2, AceBench). Она поддерживает вывод в длинном контексте до 128 тысяч токенов и разработана с использованием новой обучающей архитектуры, включающей оптимизатор MuonClip для стабильного крупномасштабного обучения MoE.

Входные данные:
55 ₽ / 1M
Текст
Исходящие данные:
223 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
55 ₽
Исходящие токены за 1M:
223 ₽
Скопировано в буфер обмена!
Mistral AI
131K

Devstral Medium — это высокопроизводительная модель генерации кода и агентного мышления, разработанная совместно Mistral AI и All Hands AI. Она позиционируется как шаг вперед по сравнению с Devstral Small и достигает 61,6% на SWE-Bench Verified, опережая Gemini 2.5 Pro и GPT-4.1 в задачах, связанных с кодом, при значительно меньших затратах. Модель предназначена для обобщения различных стилей запросов и использования инструментов в кодовых агентах и фреймворках.

Devstral Medium доступна только через API (без открытых весов) и поддерживает корпоративное развертывание на частной инфраструктуре с возможностью дополнительной настройки.

Входные данные:
38 ₽ / 1M
Текст
Исходящие данные:
194 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
38 ₽
Исходящие токены за 1M:
194 ₽
Скопировано в буфер обмена!
Mistral AI
131K

Devstral Small 1.1 — это языковая модель с открытыми весами для агентов в области программной инженерии, содержащая 24 миллиарда параметров, разработанная Mistral AI в сотрудничестве с All Hands AI. Модель доработана на основе Mistral Small 3.1 и выпущена под лицензией Apache 2.0. Она обладает контекстным окном в 128 тысяч токенов и поддерживает как вызовы функций в стиле Mistral, так и форматы вывода XML.

Разработанная для агентных рабочих процессов кодирования, Devstral Small 1.1 оптимизирована для таких задач, как исследование кодовой базы, редактирование нескольких файлов и интеграция в автономные агенты разработки, такие как OpenHands и Cline. Она достигает 53,6% на SWE-Bench Verified, превосходя все другие открытые модели на этом бенчмарке, оставаясь при этом достаточно легкой для работы на одном GPU 4090 или машине с чипом Apple. Модель использует токенизатор Tekken с вокабуляром в 131 тысячу и может быть развернута через vLLM, Transformers, Ollama, LM Studio и другие среды, совместимые с OpenAI.

Входные данные:
9 ₽ / 1M
Текст
Исходящие данные:
29 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
29 ₽
Скопировано в буфер обмена!
xAI
256K

Grok 4 — это последняя модель рассуждений от xAI с контекстным окном в 256k. Она поддерживает параллельный вызов инструментов, структурированные выходные данные, а также как изображение, так и текст в качестве входных данных. Обратите внимание, что рассуждения не раскрываются, их нельзя отключить, и усилия на рассуждения нельзя задать. Цены увеличиваются, если общее количество токенов в запросе превышает 128k токенов. Подробнее смотрите в документации xAI.

Входные данные:
291 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
1458 ₽ / 1M
Текст
Контекст:
256K
Входящие токены за 1M:
291 ₽
Исходящие токены за 1M:
1458 ₽
Скопировано в буфер обмена!
Tencent
131K

Hunyuan-A13B — это языковая модель Mixture-of-Experts (MoE) с 13 миллиардами активных параметров, разработанная компанией Tencent, с общим количеством параметров 80 миллиардов и поддержкой рассуждений через Chain-of-Thought. Она демонстрирует конкурентоспособные результаты в тестах по математике, науке, программированию и задачам многократного рассуждения, сохраняя при этом высокую эффективность вывода благодаря Grouped Query Attention (GQA) и поддержке квантования (FP8, GPTQ и др.).

Входные данные:
13 ₽ / 1M
Текст
Исходящие данные:
55 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
13 ₽
Исходящие токены за 1M:
55 ₽