Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (72)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
NVIDIA
262K

NVIDIA Nemotron 3 Super — это открытая гибридная модель MoE с 120 миллиардами параметров, активирующая всего 12 миллиардов параметров для максимальной вычислительной эффективности и точности в сложных многоагентных приложениях. Построенная на гибридной архитектуре Mamba-Transformer Mixture-of-Experts с многотокеновым предсказанием (MTP), она обеспечивает более чем на 50% более высокую генерацию токенов по сравнению с ведущими открытыми моделями.

Модель обладает контекстным окном на 1 миллион токенов для долгосрочной согласованности агентов, междокументального рассуждения и многократного планирования задач. Латентный MoE позволяет вызывать 4 эксперта по стоимости вывода всего одного, улучшая интеллект и обобщение. Обучение с подкреплением в нескольких средах, охватывающее более 10 сред, обеспечивает ведущую точность на бенчмарках, включая AIME 2025, TerminalBench и SWE-Bench Verified.

Полностью открытая с весами, наборами данных и рецептами под лицензией NVIDIA Open License, Nemotron 3 Super позволяет легко настраивать и безопасно развертывать её в любом месте — от рабочей станции до облака.

Входные данные:
8 ₽ / 1M
Текст
Исходящие данные:
43 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
8 ₽
Исходящие токены за 1M:
43 ₽
Скопировано в буфер обмена!
Bytedance-seed
262K

Seed-2.0-Lite — это сбалансированная модель, разработанная для высокочастотных корпоративных рабочих нагрузок, оптимизируя как возможности, так и затраты. Ее общая производительность превосходит предыдущую версию Seed-1.8. Она хорошо подходит для производственных задач, таких как обработка неструктурированной информации, создание текстового контента, поиск и рекомендации, а также анализ данных. Модель поддерживает обработку с длинным контекстом, слияние информации из нескольких источников, выполнение многошаговых инструкций и создание высокоточных структурированных выходных данных, обеспечивая стабильное качество при значительном снижении затрат.

Входные данные:
24 ₽ / 1M
Текст
Изображения
Видео
Исходящие данные:
194 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
24 ₽
Исходящие токены за 1M:
194 ₽
Скопировано в буфер обмена!
Qwen
262K

Qwen3.5-9B — это мультимодальная базовая модель из семейства Qwen3.5, разработанная для обеспечения мощных возможностей в области рассуждений, программирования и визуального понимания в эффективной архитектуре с 9 миллиардами параметров. Она использует унифицированный дизайн для работы с визуальной и языковой информацией с ранним объединением мультимодальных токенов, что позволяет модели обрабатывать и анализировать текст и изображения в одном контексте.

Входные данные:
9 ₽ / 1M
Текст
Изображения
Видео
Исходящие данные:
14 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
14 ₽
Скопировано в буфер обмена!
OpenAI
1M

GPT-5.4 Pro — это самая продвинутая модель OpenAI, основанная на единой архитектуре GPT-5.4 с улучшенными возможностями рассуждения для выполнения сложных и ответственных задач. Она обладает контекстным окном более 1 миллиона токенов (922K на входе, 128K на выходе) с поддержкой текстовых и визуальных данных. Оптимизированная для пошагового рассуждения, следования инструкциям и точности, GPT-5.4 Pro превосходно справляется с агентским кодированием, рабочими процессами с длинным контекстом и многошаговым решением задач.

Входные данные:
2917 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
17503 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
2917 ₽
Исходящие токены за 1M:
17503 ₽
Скопировано в буфер обмена!
OpenAI
1M

GPT-5.4 — это новейшая модель от OpenAI, объединяющая линии Codex и GPT в единую систему. Она обладает контекстным окном более чем на 1 миллион токенов (922 тыс. на вход и 128 тыс. на выход) с поддержкой текстовых и графических входных данных, что позволяет выполнять высококонтекстное рассуждение, программирование и мультимодальный анализ в рамках одного рабочего процесса.

Модель обеспечивает улучшенную производительность в программировании, понимании документов, использовании инструментов и следовании инструкциям. Она разработана как мощный инструмент по умолчанию как для общих задач, так и для программной инженерии, способная генерировать код производственного качества, синтезировать информацию из множества источников и выполнять сложные многоэтапные рабочие процессы с меньшим числом итераций и большей эффективностью использования токенов.

Входные данные:
243 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
1458 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
243 ₽
Исходящие токены за 1M:
1458 ₽
Скопировано в буфер обмена!
Inception
128K

Mercury 2 — это чрезвычайно быстрое LLM для рассуждений и первое LLM с диффузией рассуждений (dLLM). Вместо последовательной генерации токенов, Mercury 2 производит и уточняет несколько токенов параллельно, достигая более 1000 токенов в секунду на стандартных GPU. Mercury 2 работает в 5 раз быстрее, чем ведущие оптимизированные по скорости LLM, такие как Claude 4.5 Haiku и GPT 5 Mini, при этом стоимость значительно ниже. Mercury 2 поддерживает настраиваемые уровни рассуждений, контекст на 128K, использование инструментов на родном уровне и вывод JSON, выровненный по схеме. Создан для рабочих процессов программирования, где задержка накапливается, а также для работы в реальном времени с голосом/поиском и агентными циклами. Совместим с OpenAI API. Подробнее читайте в блоге.

Входные данные:
24 ₽ / 1M
Текст
Исходящие данные:
72 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
24 ₽
Исходящие токены за 1M:
72 ₽
Скопировано в буфер обмена!
OpenAI
128K

GPT-5.3 Chat — это обновление самой популярной модели ChatGPT, которое делает повседневные разговоры более плавными, полезными и более непосредственно полезными. Оно предоставляет более точные ответы с лучшей контекстуализацией и значительно сокращает количество ненужных отказов, оговорок и чрезмерно осторожных формулировок, которые могут прерывать течение беседы.

Входные данные:
170 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
1361 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
170 ₽
Исходящие токены за 1M:
1361 ₽
Скопировано в буфер обмена!
Google
1M

Gemini 3.1 Flash Lite Preview — это высокоэффективная модель от Google, оптимизированная для случаев использования с большим объемом данных. Она превосходит Gemini 2.5 Flash Lite по общему качеству и приближается к производительности Gemini 2.5 Flash по ключевым возможностям. Улучшения охватывают аудиоввод/распознавание речи, ранжирование фрагментов RAG, перевод, извлечение данных и автозаполнение кода. Поддерживает полные уровни мышления (минимальный, низкий, средний, высокий) для точной настройки соотношения затрат и производительности. Стоимость составляет половину от цены Gemini 3 Flash.

Входные данные:
24 ₽ / 1M
Текст
Изображения
Видео
Файл
Аудио
Исходящие данные:
145 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
24 ₽
Исходящие токены за 1M:
145 ₽
Скопировано в буфер обмена!
Bytedance-seed
262K

Seed-2.0-mini нацелен на сценарии, чувствительные к задержкам, с высокой степенью параллелизма и чувствительностью к затратам, делая акцент на быстром отклике и гибком развертывании инференса. Он обеспечивает производительность, сопоставимую с ByteDance-Seed-1.6, поддерживает контекст объемом 256k, четыре режима усилий для рассуждений (минимальный/низкий/средний/высокий), мультимодальное понимание и оптимизирован для легковесных задач, где приоритет отдается стоимости и скорости.

Входные данные:
9 ₽ / 1M
Текст
Изображения
Видео
Исходящие данные:
38 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
38 ₽
Скопировано в буфер обмена!
Google
66K

Gemini 3.1 Flash Image Preview, также известная как “Nano Banana 2,” — это новейшая модель Google для генерации и редактирования изображений, обеспечивающая профессиональное качество визуализации на скорости Flash. Она сочетает в себе продвинутое контекстуальное понимание с быстрой и экономичной инференцией, что делает сложную генерацию изображений и итеративные правки значительно более доступными.

Входные данные:
48 ₽ / 1M
Изображения
Текст
Исходящие данные:
291 ₽ / 1M
Изображения
Текст
Контекст:
66K
Входящие токены за 1M:
48 ₽
Исходящие токены за 1M:
291 ₽
Скопировано в буфер обмена!
Qwen
262K

Серия Qwen3.5 35B-A3B представляет собой модель обработки визуально-языковой информации с гибридной архитектурой, которая интегрирует механизмы линейного внимания и разреженную модель смеси экспертов, что обеспечивает более высокую эффективность вывода. Ее общая производительность сопоставима с Qwen3.5-27B.

Входные данные:
18 ₽ / 1M
Текст
Изображения
Видео
Исходящие данные:
97 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
18 ₽
Исходящие токены за 1M:
97 ₽
Скопировано в буфер обмена!
Qwen
262K

Модель Qwen3.5 27B native vision-language Dense включает линейный механизм внимания, обеспечивая быструю скорость отклика при сбалансированности скорости вывода и производительности. Ее общие возможности сопоставимы с возможностями Qwen3.5-122B-A10B.

Входные данные:
18 ₽ / 1M
Текст
Изображения
Видео
Исходящие данные:
151 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
18 ₽
Исходящие токены за 1M:
151 ₽
Скопировано в буфер обмена!
Qwen
262K

Модель Qwen3.5 122B-A10B для обработки языка и изображений построена на гибридной архитектуре, которая интегрирует линейный механизм внимания с разреженной моделью смеси экспертов, что обеспечивает более высокую эффективность вывода. По общим показателям эта модель уступает только Qwen3.5-397B-A17B. Её текстовые возможности значительно превосходят возможности Qwen3-235B-2507, а визуальные возможности превосходят Qwen3-VL-235B.

Входные данные:
25 ₽ / 1M
Текст
Изображения
Видео
Исходящие данные:
202 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
25 ₽
Исходящие токены за 1M:
202 ₽
Скопировано в буфер обмена!
Qwen
1M

Нативные модели Qwen3.5 vision-language Flash построены на гибридной архитектуре, которая интегрирует линейный механизм внимания с разреженной моделью смеси экспертов, достигая более высокой эффективности вывода. По сравнению с серией 3, эти модели обеспечивают значительный прорыв в производительности как для чисто текстовых, так и для мультимодальных задач, предлагая быстрое время отклика при сбалансированности скорости вывода и общей производительности.

Входные данные:
6 ₽ / 1M
Текст
Изображения
Видео
Исходящие данные:
25 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
6 ₽
Исходящие токены за 1M:
25 ₽
Скопировано в буфер обмена!
Liquid
33K

LFM2-24B-A2B является крупнейшей моделью в семействе гибридных архитектур LFM2, разработанной для эффективного развертывания на устройствах. Построенная как модель Mixture-of-Experts с 24 миллиардами параметров, она использует только 2 миллиарда активных параметров на токен, обеспечивая высокое качество генерации при низких затратах на вывод. Модель помещается в 32 ГБ оперативной памяти, что делает её практичной для запуска на потребительских ноутбуках и настольных компьютерах без потери функциональности.

Входные данные:
2 ₽ / 1M
Текст
Исходящие данные:
11 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
2 ₽
Исходящие токены за 1M:
11 ₽