Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (66)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
OpenAI
131K

gpt-oss-120b — это языковая модель Mixture-of-Experts (MoE) с открытыми весами и 117 миллиардами параметров от OpenAI, предназначенная для использования в задачах, требующих высокого уровня рассуждений, агентности и общего назначения. Она активирует 5,1 миллиарда параметров за один прямой проход и оптимизирована для работы на одном графическом процессоре H100 с использованием нативной квантования MXFP4. Модель поддерживает настраиваемую глубину рассуждений, полный доступ к цепочке рассуждений и нативное использование инструментов, включая вызов функций, просмотр и генерацию структурированного вывода.

Входные данные:
5 ₽ / 1M
Текст
Исходящие данные:
25 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
5 ₽
Исходящие токены за 1M:
25 ₽
Скопировано в буфер обмена!
OpenAI
131K

gpt-oss-120b — это языковая модель с открытыми весами от OpenAI, состоящая из 117 миллиардов параметров и использующая архитектуру Mixture-of-Experts (MoE). Она предназначена для задач, требующих высокого уровня рассуждений, агентности и универсального применения. В каждом прямом проходе активируется 5,1 миллиарда параметров, и модель оптимизирована для работы на одном графическом процессоре H100 с использованием нативной квантования MXFP4. Модель поддерживает настраиваемую глубину рассуждений, полный доступ к цепочке рассуждений и нативное использование инструментов, включая вызов функций, просмотр и генерацию структурированного вывода.

Входные данные:
5 ₽ / 1M
Текст
Исходящие данные:
25 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
5 ₽
Исходящие токены за 1M:
25 ₽
Скопировано в буфер обмена!
OpenAI
131K

gpt-oss-20b — это модель с открытыми весами на 21 миллиард параметров, выпущенная OpenAI под лицензией Apache 2.0. Она использует архитектуру Mixture-of-Experts (MoE) с 3,6 миллиардами активных параметров на каждый прямой проход, оптимизированную для инференса с низкой задержкой и развертывания на потребительском или однопроцессорном оборудовании. Модель обучена в формате ответов Harmony от OpenAI и поддерживает настройку уровня рассуждений, тонкую настройку и агентные возможности, включая вызов функций, использование инструментов и структурированные выводы.

Входные данные:
3 ₽ / 1M
Текст
Исходящие данные:
14 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
3 ₽
Исходящие токены за 1M:
14 ₽
Скопировано в буфер обмена!
Anthropic
200K

Claude Opus 4.1 — это обновленная версия флагманской модели Anthropic, предлагающая улучшенную производительность в задачах программирования, рассуждения и агентных задачах. Она достигает 74,5% на SWE-bench Verified и демонстрирует заметные улучшения в многокомпонентной рефакторинге кода, точности отладки и детализированном рассуждении. Модель поддерживает расширенное мышление до 64K токенов и оптимизирована для задач, связанных с исследованием, анализом данных и инструментально поддерживаемым рассуждением.

Входные данные:
1513 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
7566 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
1513 ₽
Исходящие токены за 1M:
7566 ₽
Скопировано в буфер обмена!
Mistral AI
256K

Современная языковая модель Mistral для кодирования была выпущена в конце июля 2025 года. Codestral специализируется на задачах с низкой задержкой и высокой частотой, таких как заполнение промежутков (FIM), исправление кода и генерация тестов.

Входные данные:
30 ₽ / 1M
Текст
Исходящие данные:
90 ₽ / 1M
Текст
Контекст:
256K
Входящие токены за 1M:
30 ₽
Исходящие токены за 1M:
90 ₽
Скопировано в буфер обмена!
Qwen
160K

Qwen3-Coder-30B-A3B-Instruct — это модель Mixture-of-Experts (MoE) с 30,5 миллиардами параметров и 128 экспертами (8 активных на каждый проход), разработанная для продвинутой генерации кода, понимания на уровне репозиториев и использования инструментов агентами. Построенная на архитектуре Qwen3, она поддерживает нативную длину контекста в 256 тысяч токенов (расширяемую до 1 миллиона с помощью Yarn) и демонстрирует высокую производительность в задачах, связанных с вызовами функций, использованием браузера и структурированным дополнением кода.

Эта модель оптимизирована для следования инструкциям без «режима размышления» и хорошо интегрируется с форматами использования инструментов, совместимыми с ИИ.

Входные данные:
7 ₽ / 1M
Текст
Исходящие данные:
27 ₽ / 1M
Текст
Контекст:
160K
Входящие токены за 1M:
7 ₽
Исходящие токены за 1M:
27 ₽
Скопировано в буфер обмена!
Qwen
262K

Qwen3-30B-A3B-Instruct-2507 — это языковая модель с 30,5 миллиардами параметров, основанная на смеси экспертов от Qwen, с 3,3 миллиардами активных параметров на каждое предсказание. Она работает в режиме без мышления и предназначена для высококачественного выполнения инструкций, многоязычного понимания и использования инструментов. После обучения на данных инструкций она демонстрирует конкурентоспособные результаты в различных тестах на рассуждение (AIME, ZebraLogic), программирование (MultiPL-E, LiveCodeBench) и согласование (IFEval, WritingBench). Она превосходит свою неинструктивную версию в субъективных и открытых задачах, сохраняя при этом сильные фактические и программные возможности.

Входные данные:
9 ₽ / 1M
Текст
Исходящие данные:
30 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
30 ₽
Скопировано в буфер обмена!
Z AI
131K

GLM-4.5 — наша последняя флагманская базовая модель, специально созданная для приложений на основе агентов. Она использует архитектуру Mixture-of-Experts (MoE) и поддерживает длину контекста до 128 тысяч токенов. GLM-4.5 обеспечивает значительно улучшенные возможности в области рассуждений, генерации кода и согласования агентов. Она поддерживает гибридный режим вывода с двумя опциями: “режим размышления”, предназначенный для сложных рассуждений и использования инструментов, и “режим без размышлений”, оптимизированный для мгновенных ответов. Пользователи могут управлять поведением рассуждений с помощью булевой переменной reasoning enabled.

Входные данные:
55 ₽ / 1M
Текст
Исходящие данные:
201 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
55 ₽
Исходящие токены за 1M:
201 ₽
Скопировано в буфер обмена!
Z AI
131K

GLM-4.5-Air — это облегченный вариант нашей последней флагманской модели, также специально созданный для приложений, ориентированных на агентов. Как и GLM-4.5, он использует архитектуру Mixture-of-Experts (MoE), но с более компактным размером параметров. GLM-4.5-Air также поддерживает гибридные режимы вывода, предлагая “режим мышления” для продвинутого рассуждения и использования инструментов, а также “режим без мышления” для взаимодействия в реальном времени. Пользователи могут управлять поведением рассуждения с помощью булевой переменной reasoning enabled.

Входные данные:
13 ₽ / 1M
Текст
Исходящие данные:
85 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
13 ₽
Исходящие токены за 1M:
85 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen3-235B-A22B-Thinking-2507 — это высокопроизводительная языковая модель типа Mixture-of-Experts (MoE) с открытым весом, оптимизированная для сложных задач рассуждения. Она активирует 22 миллиарда из своих 235 миллиардов параметров за один проход и изначально поддерживает до 262 144 токенов контекста. Этот вариант, предназначенный исключительно для «мышления», улучшает структурированное логическое рассуждение, математику, науку и генерацию длинных текстов, демонстрируя высокие результаты в тестах AIME, SuperGPQA, LiveCodeBench и MMLU-Redux. Он включает специальный режим рассуждения (</think>) и разработан для вывода с высоким количеством токенов (до 81 920 токенов) в сложных областях.

Модель настроена на выполнение инструкций и превосходно справляется с пошаговым рассуждением, использованием инструментов, агентными рабочими процессами и многоязычными задачами. Этот выпуск представляет собой самую мощную открытую версию в серии Qwen3-235B, превосходя многие закрытые модели в случаях использования структурированного рассуждения.

Входные данные:
11 ₽ / 1M
Текст
Исходящие данные:
60 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
11 ₽
Исходящие токены за 1M:
60 ₽
Скопировано в буфер обмена!
Z AI
128K

GLM 4 32B — это экономически эффективная базовая языковая модель.

Она может эффективно выполнять сложные задачи и обладает значительно улучшенными возможностями в использовании инструментов, онлайн-поиске и интеллектуальных задачах, связанных с кодом.

Её разработала та же лаборатория, что и модели thudm.

Входные данные:
10 ₽ / 1M
Текст
Исходящие данные:
10 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
10 ₽
Исходящие токены за 1M:
10 ₽
Скопировано в буфер обмена!
Qwen
262K

Qwen3-Coder-480B-A35B-Instruct — это модель генерации кода типа Mixture-of-Experts (MoE), разработанная командой Qwen. Она оптимизирована для агентных задач программирования, таких как вызов функций, использование инструментов и рассуждение в длинных контекстах по репозиториям. Модель включает 480 миллиардов параметров, из которых 35 миллиардов активны на каждый прямой проход (8 из 160 экспертов).

Цены на конечные точки Alibaba зависят от длины контекста. Когда запрос превышает 128 тысяч входных токенов, применяется более высокая цена.

Входные данные:
25 ₽ / 1M
Текст
Исходящие данные:
100 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
25 ₽
Исходящие токены за 1M:
100 ₽
Скопировано в буфер обмена!
Qwen
262K

Qwen3-Coder-480B-A35B-Instruct — это модель генерации кода типа Mixture-of-Experts (MoE), разработанная командой Qwen. Она оптимизирована для агентных задач программирования, таких как вызов функций, использование инструментов и рассуждение в длинном контексте по репозиториям. Модель имеет 480 миллиардов общих параметров, из которых 35 миллиардов активны при каждом прямом проходе (8 из 160 экспертов).

Цены на конечные точки Alibaba зависят от длины контекста. Как только запрос превышает 128 тысяч входных токенов, применяется более высокая цена.

Входные данные:
25 ₽ / 1M
Текст
Исходящие данные:
100 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
25 ₽
Исходящие токены за 1M:
100 ₽
Скопировано в буфер обмена!
ByteDance
128K

UI-TARS-1.5 — это мультимодальный агент для работы с визуально-языковыми интерфейсами, оптимизированный для GUI-сред, включая настольные интерфейсы, веб-браузеры, мобильные системы и игры. Разработанный компанией ByteDance, он основывается на фреймворке UI-TARS с использованием обучения с подкреплением для рассуждений, что позволяет эффективно планировать и выполнять действия в виртуальных интерфейсах.

Эта модель достигает передовых результатов на ряде интерактивных и привязанных к контексту тестов, включая OSworld, WebVoyager, AndroidWorld и ScreenSpot. Она также демонстрирует идеальное выполнение задач в различных играх на Poki и превосходит предыдущие модели в задачах агента Minecraft. UI-TARS-1.5 поддерживает декомпозицию мыслей во время вывода и показывает сильное масштабирование среди вариантов, причем версия 1.5 значительно превосходит по производительности более ранние контрольные точки 72B и 7B.

Входные данные:
10 ₽ / 1M
Изображения
Текст
Исходящие данные:
20 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
10 ₽
Исходящие токены за 1M:
20 ₽
Скопировано в буфер обмена!
Google
1M

Gemini 2.5 Flash-Lite — это облегчённая модель рассуждений в семействе Gemini 2.5, оптимизированная для сверхнизкой задержки и экономической эффективности. Она обеспечивает улучшенную пропускную способность, более быстрое генерирование токенов и лучшую производительность по общим тестам по сравнению с более ранними моделями Flash. По умолчанию “мышление” (т.е. многократное рассуждение) отключено, чтобы приоритет отдавался скорости, но разработчики могут включить его через параметр Reasoning API, чтобы избирательно обменивать стоимость на интеллект.

Входные данные:
10 ₽ / 1M
Текст
Изображения
Файл
Аудио
Видео
Исходящие данные:
40 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
10 ₽
Исходящие токены за 1M:
40 ₽