Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (72)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Mistral AI
131K

Mistral Medium 3.1 — это обновленная версия Mistral Medium 3, высокопроизводительной языковой модели корпоративного уровня, разработанной для предоставления передовых возможностей при значительно сниженных операционных затратах. Она сочетает в себе передовые возможности логического мышления и мультимодальной производительности с в 8 раз меньшими затратами по сравнению с традиционными крупными моделями, что делает ее подходящей для масштабируемых развертываний в профессиональных и промышленных сценариях использования.

Модель превосходно работает в таких областях, как программирование, логическое мышление в STEM и адаптация для предприятий. Она поддерживает гибридные, локальные и в-VPC развертывания и оптимизирована для интеграции в пользовательские рабочие процессы. Mistral Medium 3.1 предлагает конкурентоспособную точность по сравнению с более крупными моделями, такими как Claude Sonnet 3.5/3.7, Llama 4 Maverick и Command R+, при этом сохраняя широкую совместимость в облачных средах.

Входные данные:
38 ₽ / 1M
Текст
Изображения
Исходящие данные:
194 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
38 ₽
Исходящие токены за 1M:
194 ₽
Скопировано в буфер обмена!
Baidu
120K

Современная текстовая модель Mixture-of-Experts (MoE) с 21 миллиардом параметров, из которых 3 миллиарда активируются на каждый токен, обеспечивает исключительное мультимодальное понимание и генерацию благодаря гетерогенным структурам MoE и маршрутизации, изолированной по модальностям. Поддерживая обширную длину контекста в 131 тысячу токенов, модель достигает эффективного вывода через параллельное сотрудничество множества экспертов и квантизацию, в то время как передовые методы пост-тренировки, включая SFT, DPO и UPO, обеспечивают оптимизированную производительность в различных приложениях с использованием специализированной маршрутизации и балансировки потерь для превосходной обработки задач.

Входные данные:
6 ₽ / 1M
Текст
Исходящие данные:
27 ₽ / 1M
Текст
Контекст:
120K
Входящие токены за 1M:
6 ₽
Исходящие токены за 1M:
27 ₽
Скопировано в буфер обмена!
Baidu
30K

Мощная мультимодальная модель Mixture-of-Experts с 28 миллиардами параметров, из которых 3 миллиарда активируются на каждый токен, обеспечивает исключительное понимание текста и изображений благодаря своей инновационной гетерогенной структуре MoE с маршрутизацией, изолированной по модальностям. Построенная на масштабируемой инфраструктуре для высокопроизводительного обучения и вывода, модель использует передовые методы пост-тренировки, включая SFT, DPO и UPO для оптимизированной производительности, поддерживая впечатляющую длину контекста в 131 тысячу и выравнивание RLVR для превосходных возможностей кросс-модального рассуждения и генерации.

Входные данные:
13 ₽ / 1M
Текст
Изображения
Исходящие данные:
54 ₽ / 1M
Текст
Контекст:
30K
Входящие токены за 1M:
13 ₽
Исходящие токены за 1M:
54 ₽
Скопировано в буфер обмена!
Z AI
66K

GLM-4.5V — это базовая модель для работы с визуально-языковыми данными в приложениях мультимодальных агентов. Построенная на архитектуре Mixture-of-Experts (MoE) с 106 миллиардами параметров и 12 миллиардами активированных параметров, она достигает передовых результатов в понимании видео, вопросах и ответах по изображениям, OCR и разборе документов, а также демонстрирует значительные улучшения в веб-кодировании интерфейсов, привязке и пространственном мышлении. Она предлагает гибридный режим вывода: “режим размышления” для глубокого анализа и “режим без размышлений” для быстрых ответов. Поведение в плане рассуждений можно переключать с помощью логического параметра reasoning enabled.

Входные данные:
58 ₽ / 1M
Текст
Изображения
Исходящие данные:
175 ₽ / 1M
Текст
Контекст:
66K
Входящие токены за 1M:
58 ₽
Исходящие токены за 1M:
175 ₽
Скопировано в буфер обмена!
AI21
256K

Jamba Large 1.7 — это последняя модель в семействе Jamba open, предлагающая улучшения в области обоснованности, следования инструкциям и общей эффективности. Построенная на гибридной архитектуре SSM-Transformer с контекстным окном 256K, она обеспечивает более точные, контекстуально обоснованные ответы и лучшую управляемость по сравнению с предыдущими версиями.

Входные данные:
194 ₽ / 1M
Текст
Исходящие данные:
777 ₽ / 1M
Текст
Контекст:
256K
Входящие токены за 1M:
194 ₽
Исходящие токены за 1M:
777 ₽
Скопировано в буфер обмена!
OpenAI
128K

GPT-5 Chat предназначен для ведения продвинутых, естественных, мультимодальных и учитывающих контекст бесед в корпоративных приложениях.

Входные данные:
121 ₽ / 1M
Файл
Изображения
Текст
Исходящие данные:
972 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
121 ₽
Исходящие токены за 1M:
972 ₽
Скопировано в буфер обмена!
OpenAI
400K

GPT-5 — это самая продвинутая модель OpenAI, предлагающая значительные улучшения в области рассуждений, качества кода и пользовательского опыта. Она оптимизирована для сложных задач, требующих пошагового рассуждения, следования инструкциям и точности в критически важных случаях использования. Модель поддерживает функции маршрутизации во время тестирования и продвинутое понимание подсказок, включая намерения, заданные пользователем, такие как “подумай об этом тщательно”. Улучшения включают снижение галлюцинаций, лести и лучшую производительность в задачах программирования, написания и связанных со здоровьем.

Входные данные:
121 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
972 ₽ / 1M
Текст
Контекст:
400K
Входящие токены за 1M:
121 ₽
Исходящие токены за 1M:
972 ₽
Скопировано в буфер обмена!
OpenAI
400K

GPT-5 Mini — это компактная версия GPT-5, разработанная для выполнения менее сложных задач, связанных с рассуждениями. Она обеспечивает те же преимущества в следовании инструкциям и настройке безопасности, что и GPT-5, но с уменьшенной задержкой и стоимостью. GPT-5 Mini является преемником модели o4-mini от OpenAI.

Входные данные:
24 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
194 ₽ / 1M
Текст
Контекст:
400K
Входящие токены за 1M:
24 ₽
Исходящие токены за 1M:
194 ₽
Скопировано в буфер обмена!
OpenAI
400K

GPT-5-Nano — это самая маленькая и быстрая версия в системе GPT-5, оптимизированная для инструментов разработчиков, быстрых взаимодействий и сред с ультранизкой задержкой. Хотя её глубина рассуждений ограничена по сравнению с более крупными аналогами, она сохраняет ключевые функции следования инструкциям и безопасности. Это преемник GPT-4.1-nano и предлагает облегчённый вариант для чувствительных к затратам или реального времени приложений.

Входные данные:
4 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
38 ₽ / 1M
Текст
Контекст:
400K
Входящие токены за 1M:
4 ₽
Исходящие токены за 1M:
38 ₽
Скопировано в буфер обмена!
OpenAI
131K

gpt-oss-120b — это языковая модель Mixture-of-Experts (MoE) с открытыми весами и 117 миллиардами параметров от OpenAI, предназначенная для использования в задачах, требующих высокого уровня рассуждений, агентности и общего назначения. Она активирует 5,1 миллиарда параметров за один прямой проход и оптимизирована для работы на одном графическом процессоре H100 с использованием нативной квантования MXFP4. Модель поддерживает настраиваемую глубину рассуждений, полный доступ к цепочке рассуждений и нативное использование инструментов, включая вызов функций, просмотр и генерацию структурированного вывода.

Входные данные:
3 ₽ / 1M
Текст
Исходящие данные:
17 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
3 ₽
Исходящие токены за 1M:
17 ₽
Скопировано в буфер обмена!
OpenAI
131K

gpt-oss-120b — это языковая модель с открытыми весами от OpenAI, состоящая из 117 миллиардов параметров и использующая архитектуру Mixture-of-Experts (MoE). Она предназначена для задач, требующих высокого уровня рассуждений, агентности и универсального применения. В каждом прямом проходе активируется 5,1 миллиарда параметров, и модель оптимизирована для работы на одном графическом процессоре H100 с использованием нативной квантования MXFP4. Модель поддерживает настраиваемую глубину рассуждений, полный доступ к цепочке рассуждений и нативное использование инструментов, включая вызов функций, просмотр и генерацию структурированного вывода.

Входные данные:
3 ₽ / 1M
Текст
Исходящие данные:
17 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
3 ₽
Исходящие токены за 1M:
17 ₽
Скопировано в буфер обмена!
OpenAI
131K

gpt-oss-20b — это модель с открытыми весами на 21 миллиард параметров, выпущенная OpenAI под лицензией Apache 2.0. Она использует архитектуру Mixture-of-Experts (MoE) с 3,6 миллиардами активных параметров на каждый прямой проход, оптимизированную для инференса с низкой задержкой и развертывания на потребительском или однопроцессорном оборудовании. Модель обучена в формате ответов Harmony от OpenAI и поддерживает настройку уровня рассуждений, тонкую настройку и агентные возможности, включая вызов функций, использование инструментов и структурированные выводы.

Входные данные:
2 ₽ / 1M
Текст
Исходящие данные:
13 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
2 ₽
Исходящие токены за 1M:
13 ₽
Скопировано в буфер обмена!
Anthropic
200K

Claude Opus 4.1 — это обновленная версия флагманской модели Anthropic, предлагающая улучшенную производительность в задачах программирования, рассуждения и агентных задачах. Она достигает 74,5% на SWE-bench Verified и демонстрирует заметные улучшения в многокомпонентной рефакторинге кода, точности отладки и детализированном рассуждении. Модель поддерживает расширенное мышление до 64K токенов и оптимизирована для задач, связанных с исследованием, анализом данных и инструментально поддерживаемым рассуждением.

Входные данные:
1458 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
7293 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
1458 ₽
Исходящие токены за 1M:
7293 ₽
Скопировано в буфер обмена!
Mistral AI
256K

Современная языковая модель Mistral для кодирования была выпущена в конце июля 2025 года. Codestral специализируется на задачах с низкой задержкой и высокой частотой, таких как заполнение промежутков (FIM), исправление кода и генерация тестов.

Входные данные:
29 ₽ / 1M
Текст
Исходящие данные:
87 ₽ / 1M
Текст
Контекст:
256K
Входящие токены за 1M:
29 ₽
Исходящие токены за 1M:
87 ₽
Скопировано в буфер обмена!
Qwen
160K

Qwen3-Coder-30B-A3B-Instruct — это модель Mixture-of-Experts (MoE) с 30,5 миллиардами параметров и 128 экспертами (8 активных на каждый проход), разработанная для продвинутой генерации кода, понимания на уровне репозиториев и использования инструментов агентами. Построенная на архитектуре Qwen3, она поддерживает нативную длину контекста в 256 тысяч токенов (расширяемую до 1 миллиона с помощью Yarn) и демонстрирует высокую производительность в задачах, связанных с вызовами функций, использованием браузера и структурированным дополнением кода.

Эта модель оптимизирована для следования инструкциям без «режима размышления» и хорошо интегрируется с форматами использования инструментов, совместимыми с ИИ.

Входные данные:
6 ₽ / 1M
Текст
Исходящие данные:
26 ₽ / 1M
Текст
Контекст:
160K
Входящие токены за 1M:
6 ₽
Исходящие токены за 1M:
26 ₽