Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (66)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
OpenAI
128K

Экономичная версия GPT Audio. Новый снимок включает обновленный декодер для более естественного звучания голосов и поддерживает лучшую согласованность голоса.

Входные данные:
60 ₽ / 1M
Текст
Аудио
Исходящие данные:
242 ₽ / 1M
Текст
Аудио
Контекст:
128K
Входящие токены за 1M:
60 ₽
Исходящие токены за 1M:
242 ₽
Скопировано в буфер обмена!
Z AI
203K

Как модель класса 30B SOTA, GLM-4.7-Flash предлагает новый вариант, который балансирует между производительностью и эффективностью. Она дополнительно оптимизирована для агентного кодирования, укрепляя возможности кодирования, планирования задач на длительный срок и сотрудничества с инструментами, и достигла ведущих результатов среди моделей с открытым исходным кодом того же размера на нескольких актуальных публичных рейтингах.

Входные данные:
6 ₽ / 1M
Текст
Исходящие данные:
40 ₽ / 1M
Текст
Контекст:
203K
Входящие токены за 1M:
6 ₽
Исходящие токены за 1M:
40 ₽
Скопировано в буфер обмена!
OpenAI
400K

GPT-5.2-Codex — это обновленная версия GPT-5.1-Codex, оптимизированная для программной инженерии и рабочих процессов кодирования. Она предназначена как для интерактивных сессий разработки, так и для длительного, независимого выполнения сложных инженерных задач. Модель поддерживает создание проектов с нуля, разработку функций, отладку, крупномасштабное рефакторинг и обзор кода. По сравнению с GPT-5.1-Codex, версия 5.2-Codex более управляемая, строго следует инструкциям разработчика и производит более чистый и качественный код. Усилия по рассуждению можно настроить с помощью параметра reasoning.effort.

Codex интегрируется в среды разработчиков, включая CLI, расширения IDE, GitHub и облачные задачи. Она динамически адаптирует усилия по рассуждению — предоставляя быстрые ответы для небольших задач, поддерживая при этом длительные многочасовые запуски для крупных проектов. Модель обучена выполнять структурированные обзоры кода, выявляя критические недостатки путем анализа зависимостей и проверки поведения на тестах. Она также поддерживает мультимодальные входные данные, такие как изображения или скриншоты для разработки пользовательского интерфейса, и интегрирует использование инструментов для поиска, установки зависимостей и настройки среды. Codex предназначена специально для агентных приложений кодирования.

Входные данные:
176 ₽ / 1M
Текст
Изображения
Исходящие данные:
1412 ₽ / 1M
Текст
Контекст:
400K
Входящие токены за 1M:
176 ₽
Исходящие токены за 1M:
1412 ₽
Скопировано в буфер обмена!
Allen AI
37K

Molmo2-8B — это открытая модель для работы с визуальными данными и языком, разработанная Институтом искусственного интеллекта Аллена (Ai2) в рамках семейства Molmo2, поддерживающая понимание и привязку изображений, видео и нескольких изображений. Она основана на Qwen3-8B и использует SigLIP 2 в качестве своей визуальной основы, превосходя другие модели с открытыми весами и данными в задачах с короткими видео, подсчёте и создании подписей, оставаясь конкурентоспособной в задачах с длинными видео.

Входные данные:
20 ₽ / 1M
Текст
Изображения
Видео
Исходящие данные:
20 ₽ / 1M
Текст
Контекст:
37K
Входящие токены за 1M:
20 ₽
Исходящие токены за 1M:
20 ₽
Скопировано в буфер обмена!
Allen AI
66K

Olmo 3.1 32B Instruct — это крупномасштабная языковая модель с 32 миллиардами параметров, настроенная для выполнения инструкций, разработанная для высокопроизводительного разговорного ИИ, многократного диалога и практического следования инструкциям. Как часть семейства Olmo 3.1, этот вариант акцентирует внимание на отзывчивости к сложным пользовательским указаниям и надежных чат-взаимодействиях, сохраняя при этом сильные способности в области рассуждений и кодирования. Разработанная Ai2 под лицензией Apache 2.0, Olmo 3.1 32B Instruct отражает приверженность инициативы Olmo к открытости и прозрачности.

Входные данные:
20 ₽ / 1M
Текст
Исходящие данные:
60 ₽ / 1M
Текст
Контекст:
66K
Входящие токены за 1M:
20 ₽
Исходящие токены за 1M:
60 ₽
Скопировано в буфер обмена!
Bytedance-seed
262K

Seed 1.6 Flash — это ультрабыстрая мультимодальная модель глубокого мышления от ByteDance Seed, поддерживающая как текстовое, так и визуальное понимание. Она обладает контекстным окном на 256k и может генерировать выводы до 16k токенов.

Входные данные:
7 ₽ / 1M
Изображения
Текст
Видео
Исходящие данные:
30 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
7 ₽
Исходящие токены за 1M:
30 ₽
Скопировано в буфер обмена!
Bytedance-seed
262K

Seed 1.6 — это универсальная модель, выпущенная командой ByteDance Seed. Она включает мультимодальные возможности и адаптивное глубокое мышление с контекстным окном в 256K.

Входные данные:
25 ₽ / 1M
Изображения
Текст
Видео
Исходящие данные:
201 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
25 ₽
Исходящие токены за 1M:
201 ₽
Скопировано в буфер обмена!
Minimax
197K

MiniMax-M2.1 — это легкая, передовая большая языковая модель, оптимизированная для кодирования, агентных рабочих процессов и разработки современных приложений. Имея всего 10 миллиардов активированных параметров, она обеспечивает значительный скачок в реальных возможностях, сохраняя при этом исключительную задержку, масштабируемость и экономическую эффективность.

По сравнению с предшественником, M2.1 выдает более чистые и лаконичные результаты и обеспечивает более быстрое восприятие времени отклика. Она демонстрирует ведущую многоязычную производительность в кодировании для основных систем и языков приложений, достигая 49,4% на Multi-SWE-Bench и 72,5% на SWE-Bench Multilingual, и служит универсальным “мозгом” агента для IDE, инструментов кодирования и универсальной помощи.

Входные данные:
27 ₽ / 1M
Текст
Исходящие данные:
95 ₽ / 1M
Текст
Контекст:
197K
Входящие токены за 1M:
27 ₽
Исходящие токены за 1M:
95 ₽
Скопировано в буфер обмена!
Z AI
203K

GLM-4.7 — это последняя флагманская модель от Z.AI, с улучшениями в двух ключевых областях: расширенные возможности программирования и более стабильное многошаговое рассуждение/выполнение. Она демонстрирует значительные улучшения в выполнении сложных задач агентами, обеспечивая более естественные разговорные взаимодействия и превосходную эстетику интерфейса.

Входные данные:
30 ₽ / 1M
Текст
Исходящие данные:
141 ₽ / 1M
Текст
Контекст:
203K
Входящие токены за 1M:
30 ₽
Исходящие токены за 1M:
141 ₽
Скопировано в буфер обмена!
Google
1M

Gemini 3 Flash Preview — это высокоскоростная модель с высокой ценностью, разработанная для агентных рабочих процессов, многократного общения и помощи в кодировании. Она обеспечивает уровень рассуждений и использования инструментов, близкий к профессиональному, с существенно меньшей задержкой, чем у более крупных вариантов Gemini, что делает её хорошо подходящей для интерактивной разработки, длительных агентных циклов и совместных задач по кодированию. По сравнению с Gemini 2.5 Flash, она предлагает значительные улучшения качества в области рассуждений, мультимодального понимания и надежности.

Модель поддерживает контекстное окно на 1 миллион токенов и мультимодальные входные данные, включая текст, изображения, аудио, видео и PDF, с текстовым выводом. Она включает настраиваемые уровни рассуждений (минимальный, низкий, средний, высокий), структурированный вывод, использование инструментов и автоматическое кэширование контекста. Gemini 3 Flash Preview оптимизирована для пользователей, которым нужны сильные рассуждения и агентное поведение без затрат или задержек, характерных для полноразмерных передовых моделей.

Входные данные:
50 ₽ / 1M
Текст
Изображения
Файл
Аудио
Видео
Исходящие данные:
302 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
50 ₽
Исходящие токены за 1M:
302 ₽
Скопировано в буфер обмена!
Mistral AI
33K

Mistral Small Creative — это экспериментальная небольшая модель, разработанная для творческого письма, генерации повествований, ролевых игр и диалогов, основанных на персонажах, выполнения общих инструкций и создания разговорных агентов.

Входные данные:
10 ₽ / 1M
Текст
Исходящие данные:
30 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
10 ₽
Исходящие токены за 1M:
30 ₽
Скопировано в буфер обмена!
Allen AI
66K

Olmo 3.1 32B Think — это крупномасштабная модель с 32 миллиардами параметров, разработанная для глубокого рассуждения, сложной многошаговой логики и продвинутого следования инструкциям. Основываясь на серии Olmo 3, версия 3.1 обеспечивает более точное поведение в рассуждениях и более высокую производительность в сложных оценках и нюансированных разговорных задачах. Разработанная Ai2 по лицензии Apache 2.0, Olmo 3.1 32B Think продолжает приверженность инициативы Olmo к открытости, обеспечивая полную прозрачность в отношении весов модели, кода и методологии обучения.

Входные данные:
15 ₽ / 1M
Текст
Исходящие данные:
50 ₽ / 1M
Текст
Контекст:
66K
Входящие токены за 1M:
15 ₽
Исходящие токены за 1M:
50 ₽
Скопировано в буфер обмена!
Xiaomi
262K

MiMo-V2-Flash — это модель языка с открытым исходным кодом, разработанная Xiaomi. Это модель типа Mixture-of-Experts с общим количеством параметров 309 миллиардов и активными параметрами в 15 миллиардов, использующая гибридную архитектуру внимания. MiMo-V2-Flash поддерживает переключение гибридного мышления и контекстное окно в 256 тысяч, и превосходно справляется с задачами рассуждения, кодирования и агентными сценариями. На платформах SWE-bench Verified и SWE-bench Multilingual MiMo-V2-Flash занимает первое место среди моделей с открытым исходным кодом в мире, обеспечивая производительность, сопоставимую с Claude Sonnet 4.5, при этом стоя всего около 3,5% от его стоимости.

Примечание: при интеграции с агентными инструментами, такими как Claude Code, Cline или Roo Code, отключите режим рассуждения для достижения наилучшей и самой быстрой производительности — эта модель глубоко оптимизирована для такого сценария.

Пользователи могут управлять поведением рассуждения с помощью булевой переменной reasoning enabled.

Входные данные:
9 ₽ / 1M
Текст
Исходящие данные:
29 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
29 ₽
Скопировано в буфер обмена!
NVIDIA
262K

NVIDIA Nemotron 3 Nano 30B A3B — это небольшой языковой MoE-модель с наивысшей вычислительной эффективностью и точностью, предназначенная для разработчиков, создающих специализированные агентные AI-системы.

Модель полностью открыта с открытыми весами, наборами данных и рецептами, что позволяет разработчикам легко настраивать, оптимизировать и развертывать модель на своей инфраструктуре для максимальной конфиденциальности и безопасности.

Примечание: Для бесплатной конечной точки все запросы и выводы записываются для улучшения модели и продуктов и услуг провайдера. Пожалуйста, не загружайте личную, конфиденциальную или иную чувствительную информацию. Это только пробное использование. Не используйте для производственных или критически важных для бизнеса систем.

Входные данные:
5 ₽ / 1M
Текст
Исходящие данные:
20 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
5 ₽
Исходящие токены за 1M:
20 ₽
Скопировано в буфер обмена!
OpenAI
128K

GPT-5.2 Chat (также известный как Instant) — это быстрый и легковесный представитель семейства 5.2, оптимизированный для чатов с низкой задержкой при сохранении высокой общей интеллектуальности. Он использует адаптивное рассуждение для избирательного “обдумывания” более сложных запросов, улучшая точность в математике, программировании и многошаговых задачах без замедления обычных разговоров. Модель по умолчанию более теплая и разговорчивая, с лучшим следованием инструкциям и более стабильным краткосрочным рассуждением. GPT-5.2 Chat разработан для высокопроизводительных интерактивных задач, где отзывчивость и последовательность важнее, чем глубокие размышления.

Входные данные:
176 ₽ / 1M
Файл
Изображения
Текст
Исходящие данные:
1412 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
176 ₽
Исходящие токены за 1M:
1412 ₽