Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (72)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Writer
1M

Palmyra X5 — это самая продвинутая модель Writer, специально созданная для разработки и масштабирования AI-агентов в корпоративной среде. Она обеспечивает ведущую в отрасли скорость и эффективность при работе с контекстными окнами до 1 миллиона токенов, благодаря новой архитектуре трансформеров и гибридным механизмам внимания. Это позволяет ускорить вывод и расширить память для обработки больших объемов корпоративных данных, что критически важно для масштабирования AI-агентов.

Входные данные:
58 ₽ / 1M
Текст
Исходящие данные:
583 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
58 ₽
Исходящие токены за 1M:
583 ₽
Скопировано в буфер обмена!
OpenAI
128K

Модель gpt-audio является первой общедоступной аудиомоделью от OpenAI. Новый снимок включает улучшенный декодер для более естественного звучания голосов и поддерживает лучшую согласованность голоса.

Входные данные:
243 ₽ / 1M
Текст
Аудио
Исходящие данные:
972 ₽ / 1M
Текст
Аудио
Контекст:
128K
Входящие токены за 1M:
243 ₽
Исходящие токены за 1M:
972 ₽
Скопировано в буфер обмена!
OpenAI
128K

Экономичная версия GPT Audio. Новый снимок включает обновленный декодер для более естественного звучания голосов и поддерживает лучшую согласованность голоса.

Входные данные:
58 ₽ / 1M
Текст
Аудио
Исходящие данные:
233 ₽ / 1M
Текст
Аудио
Контекст:
128K
Входящие токены за 1M:
58 ₽
Исходящие токены за 1M:
233 ₽
Скопировано в буфер обмена!
Z AI
203K

Как модель класса 30B SOTA, GLM-4.7-Flash предлагает новый вариант, который балансирует между производительностью и эффективностью. Она дополнительно оптимизирована для агентного кодирования, укрепляя возможности кодирования, планирования задач на длительный срок и сотрудничества с инструментами, и достигла ведущих результатов среди моделей с открытым исходным кодом того же размера на нескольких актуальных публичных рейтингах.

Входные данные:
5 ₽ / 1M
Текст
Исходящие данные:
38 ₽ / 1M
Текст
Контекст:
203K
Входящие токены за 1M:
5 ₽
Исходящие токены за 1M:
38 ₽
Скопировано в буфер обмена!
OpenAI
400K

GPT-5.2-Codex — это обновленная версия GPT-5.1-Codex, оптимизированная для программной инженерии и рабочих процессов кодирования. Она предназначена как для интерактивных сессий разработки, так и для длительного, независимого выполнения сложных инженерных задач. Модель поддерживает создание проектов с нуля, разработку функций, отладку, крупномасштабное рефакторинг и обзор кода. По сравнению с GPT-5.1-Codex, версия 5.2-Codex более управляемая, строго следует инструкциям разработчика и производит более чистый и качественный код. Усилия по рассуждению можно настроить с помощью параметра reasoning.effort.

Codex интегрируется в среды разработчиков, включая CLI, расширения IDE, GitHub и облачные задачи. Она динамически адаптирует усилия по рассуждению — предоставляя быстрые ответы для небольших задач, поддерживая при этом длительные многочасовые запуски для крупных проектов. Модель обучена выполнять структурированные обзоры кода, выявляя критические недостатки путем анализа зависимостей и проверки поведения на тестах. Она также поддерживает мультимодальные входные данные, такие как изображения или скриншоты для разработки пользовательского интерфейса, и интегрирует использование инструментов для поиска, установки зависимостей и настройки среды. Codex предназначена специально для агентных приложений кодирования.

Входные данные:
170 ₽ / 1M
Текст
Изображения
Исходящие данные:
1361 ₽ / 1M
Текст
Контекст:
400K
Входящие токены за 1M:
170 ₽
Исходящие токены за 1M:
1361 ₽
Скопировано в буфер обмена!
Allen AI
66K

Olmo 3.1 32B Instruct — это крупномасштабная языковая модель с 32 миллиардами параметров, настроенная для выполнения инструкций, разработанная для высокопроизводительного разговорного ИИ, многократного диалога и практического следования инструкциям. Как часть семейства Olmo 3.1, этот вариант акцентирует внимание на отзывчивости к сложным пользовательским указаниям и надежных чат-взаимодействиях, сохраняя при этом сильные способности в области рассуждений и кодирования. Разработанная Ai2 под лицензией Apache 2.0, Olmo 3.1 32B Instruct отражает приверженность инициативы Olmo к открытости и прозрачности.

Входные данные:
19 ₽ / 1M
Текст
Исходящие данные:
58 ₽ / 1M
Текст
Контекст:
66K
Входящие токены за 1M:
19 ₽
Исходящие токены за 1M:
58 ₽
Скопировано в буфер обмена!
Bytedance-seed
262K

Seed 1.6 Flash — это ультрабыстрая мультимодальная модель глубокого мышления от ByteDance Seed, поддерживающая как текстовое, так и визуальное понимание. Она обладает контекстным окном на 256k и может генерировать выводы до 16k токенов.

Входные данные:
7 ₽ / 1M
Изображения
Текст
Видео
Исходящие данные:
29 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
7 ₽
Исходящие токены за 1M:
29 ₽
Скопировано в буфер обмена!
Bytedance-seed
262K

Seed 1.6 — это универсальная модель, выпущенная командой ByteDance Seed. Она включает мультимодальные возможности и адаптивное глубокое мышление с контекстным окном в 256K.

Входные данные:
24 ₽ / 1M
Изображения
Текст
Видео
Исходящие данные:
194 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
24 ₽
Исходящие токены за 1M:
194 ₽
Скопировано в буфер обмена!
Minimax
197K

MiniMax-M2.1 — это легкая, передовая большая языковая модель, оптимизированная для кодирования, агентных рабочих процессов и разработки современных приложений. Имея всего 10 миллиардов активированных параметров, она обеспечивает значительный скачок в реальных возможностях, сохраняя при этом исключительную задержку, масштабируемость и экономическую эффективность.

По сравнению с предшественником, M2.1 выдает более чистые и лаконичные результаты и обеспечивает более быстрое восприятие времени отклика. Она демонстрирует ведущую многоязычную производительность в кодировании для основных систем и языков приложений, достигая 49,4% на Multi-SWE-Bench и 72,5% на SWE-Bench Multilingual, и служит универсальным “мозгом” агента для IDE, инструментов кодирования и универсальной помощи.

Входные данные:
28 ₽ / 1M
Текст
Исходящие данные:
92 ₽ / 1M
Текст
Контекст:
197K
Входящие токены за 1M:
28 ₽
Исходящие токены за 1M:
92 ₽
Скопировано в буфер обмена!
Z AI
203K

GLM-4.7 — это последняя флагманская модель от Z.AI, с улучшениями в двух ключевых областях: расширенные возможности программирования и более стабильное многошаговое рассуждение/выполнение. Она демонстрирует значительные улучшения в выполнении сложных задач агентами, обеспечивая более естественные разговорные взаимодействия и превосходную эстетику интерфейса.

Входные данные:
36 ₽ / 1M
Текст
Исходящие данные:
169 ₽ / 1M
Текст
Контекст:
203K
Входящие токены за 1M:
36 ₽
Исходящие токены за 1M:
169 ₽
Скопировано в буфер обмена!
Google
1M

Gemini 3 Flash Preview — это высокоскоростная модель с высокой ценностью, разработанная для агентных рабочих процессов, многократного общения и помощи в кодировании. Она обеспечивает уровень рассуждений и использования инструментов, близкий к профессиональному, с существенно меньшей задержкой, чем у более крупных вариантов Gemini, что делает её хорошо подходящей для интерактивной разработки, длительных агентных циклов и совместных задач по кодированию. По сравнению с Gemini 2.5 Flash, она предлагает значительные улучшения качества в области рассуждений, мультимодального понимания и надежности.

Модель поддерживает контекстное окно на 1 миллион токенов и мультимодальные входные данные, включая текст, изображения, аудио, видео и PDF, с текстовым выводом. Она включает настраиваемые уровни рассуждений (минимальный, низкий, средний, высокий), структурированный вывод, использование инструментов и автоматическое кэширование контекста. Gemini 3 Flash Preview оптимизирована для пользователей, которым нужны сильные рассуждения и агентное поведение без затрат или задержек, характерных для полноразмерных передовых моделей.

Входные данные:
48 ₽ / 1M
Текст
Изображения
Файл
Аудио
Видео
Исходящие данные:
291 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
48 ₽
Исходящие токены за 1M:
291 ₽
Скопировано в буфер обмена!
Xiaomi
262K

MiMo-V2-Flash — это модель языка с открытым исходным кодом, разработанная Xiaomi. Это модель типа Mixture-of-Experts с общим количеством параметров 309 миллиардов и активными параметрами в 15 миллиардов, использующая гибридную архитектуру внимания. MiMo-V2-Flash поддерживает переключение гибридного мышления и контекстное окно в 256 тысяч, и превосходно справляется с задачами рассуждения, кодирования и агентными сценариями. На платформах SWE-bench Verified и SWE-bench Multilingual MiMo-V2-Flash занимает первое место среди моделей с открытым исходным кодом в мире, обеспечивая производительность, сопоставимую с Claude Sonnet 4.5, при этом стоя всего около 3,5% от его стоимости.

Примечание: при интеграции с агентными инструментами, такими как Claude Code, Cline или Roo Code, отключите режим рассуждения для достижения наилучшей и самой быстрой производительности — эта модель глубоко оптимизирована для такого сценария.

Пользователи могут управлять поведением рассуждения с помощью булевой переменной reasoning enabled.

Входные данные:
8 ₽ / 1M
Текст
Исходящие данные:
28 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
8 ₽
Исходящие токены за 1M:
28 ₽
Скопировано в буфер обмена!
NVIDIA
262K

NVIDIA Nemotron 3 Nano 30B A3B — это небольшой языковой MoE-модель с наивысшей вычислительной эффективностью и точностью, предназначенная для разработчиков, создающих специализированные агентные AI-системы.

Модель полностью открыта с открытыми весами, наборами данных и рецептами, что позволяет разработчикам легко настраивать, оптимизировать и развертывать модель на своей инфраструктуре для максимальной конфиденциальности и безопасности.

Примечание: Для бесплатной конечной точки все запросы и выводы записываются для улучшения модели и продуктов и услуг провайдера. Пожалуйста, не загружайте личную, конфиденциальную или иную чувствительную информацию. Это только пробное использование. Не используйте для производственных или критически важных для бизнеса систем.

Входные данные:
4 ₽ / 1M
Текст
Исходящие данные:
19 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
4 ₽
Исходящие токены за 1M:
19 ₽
Скопировано в буфер обмена!
OpenAI
128K

GPT-5.2 Chat (также известный как Instant) — это быстрый и легковесный представитель семейства 5.2, оптимизированный для чатов с низкой задержкой при сохранении высокой общей интеллектуальности. Он использует адаптивное рассуждение для избирательного “обдумывания” более сложных запросов, улучшая точность в математике, программировании и многошаговых задачах без замедления обычных разговоров. Модель по умолчанию более теплая и разговорчивая, с лучшим следованием инструкциям и более стабильным краткосрочным рассуждением. GPT-5.2 Chat разработан для высокопроизводительных интерактивных задач, где отзывчивость и последовательность важнее, чем глубокие размышления.

Входные данные:
170 ₽ / 1M
Файл
Изображения
Текст
Исходящие данные:
1361 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
170 ₽
Исходящие токены за 1M:
1361 ₽
Скопировано в буфер обмена!
OpenAI
400K

GPT-5.2 Pro — это самая продвинутая модель OpenAI, предлагающая значительные улучшения в агентном кодировании и производительности на длинных контекстах по сравнению с GPT-5 Pro. Она оптимизирована для сложных задач, требующих пошагового рассуждения, следования инструкциям и точности в критически важных случаях использования. Модель поддерживает функции маршрутизации во время тестирования и продвинутое понимание запросов, включая намерения пользователя, такие как “подумай об этом как следует”. Улучшения включают сокращение галлюцинаций, лести и повышение производительности в кодировании, письме и задачах, связанных со здоровьем.

Входные данные:
2042 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
16336 ₽ / 1M
Текст
Контекст:
400K
Входящие токены за 1M:
2042 ₽
Исходящие токены за 1M:
16336 ₽