Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (66)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
OpenAI
400K

GPT-5-Codex — это специализированная версия GPT-5, оптимизированная для программной инженерии и рабочих процессов кодирования. Она предназначена как для интерактивных сессий разработки, так и для длительного, независимого выполнения сложных инженерных задач. Модель поддерживает создание проектов с нуля, разработку функций, отладку, крупномасштабное рефакторинг и обзор кода. По сравнению с GPT-5, Codex более управляем, строго следует инструкциям разработчика и производит более чистый и качественный код. Усилия по рассуждению можно регулировать с помощью параметра reasoning.effort.

Codex интегрируется в среды разработчиков, включая CLI, расширения IDE, GitHub и облачные задачи. Он динамически адаптирует усилия по рассуждению — предоставляя быстрые ответы для небольших задач и поддерживая длительные многочасовые запуски для крупных проектов. Модель обучена выполнять структурированные обзоры кода, выявляя критические недостатки путем анализа зависимостей и проверки поведения на основе тестов. Она также поддерживает мультимодальные входные данные, такие как изображения или скриншоты для разработки пользовательского интерфейса, и интегрирует использование инструментов для поиска, установки зависимостей и настройки окружения. Codex предназначен специально для агентных приложений кодирования.

Входные данные:
126 ₽ / 1M
Текст
Изображения
Исходящие данные:
1008 ₽ / 1M
Текст
Контекст:
400K
Входящие токены за 1M:
126 ₽
Исходящие токены за 1M:
1008 ₽
Скопировано в буфер обмена!
DeepSeek
164K

DeepSeek-V3.1 Terminus — это обновление для DeepSeek V3.1, которое сохраняет изначальные возможности модели, устраняя при этом проблемы, о которых сообщали пользователи, включая языковую согласованность и возможности агентов, и дополнительно оптимизирует производительность модели в кодировании и поисковых агентах. Это крупная гибридная модель рассуждений (671 миллиард параметров, 37 миллиардов активных), поддерживающая как режимы мышления, так и немышления. Она расширяет базу DeepSeek-V3 с помощью двухфазного процесса обучения с длинным контекстом, достигая до 128 тысяч токенов, и использует FP8 микромасштабирование для эффективного вывода. Пользователи могут управлять поведением рассуждений с помощью булевой переменной reasoning enabled.

Модель улучшает использование инструментов, генерацию кода и эффективность рассуждений, достигая производительности, сопоставимой с DeepSeek-R1 на сложных тестах, при этом отвечая быстрее. Она поддерживает структурированные вызовы инструментов, кодовые агенты и поисковые агенты, что делает её подходящей для исследований, кодирования и агентных рабочих процессов.

Входные данные:
21 ₽ / 1M
Текст
Исходящие данные:
79 ₽ / 1M
Текст
Контекст:
164K
Входящие токены за 1M:
21 ₽
Исходящие токены за 1M:
79 ₽
Скопировано в буфер обмена!
DeepSeek
164K

DeepSeek-V3.1 Terminus — это обновление для DeepSeek V3.1, которое сохраняет исходные возможности модели, устраняя при этом проблемы, о которых сообщали пользователи, включая языковую согласованность и возможности агентов, и дополнительно оптимизирует производительность модели в кодировании и поисковых агентах. Это крупная гибридная модель рассуждений (671 миллиардов параметров, 37 миллиардов активных), поддерживающая как режимы мышления, так и немышления. Она расширяет базу DeepSeek-V3 с помощью двухфазного процесса обучения на длинных контекстах, достигая до 128 тысяч токенов, и использует микромасштабирование FP8 для эффективного вывода. Пользователи могут управлять поведением рассуждений с помощью булевой переменной reasoning enabled.

Модель улучшает использование инструментов, генерацию кода и эффективность рассуждений, достигая производительности, сопоставимой с DeepSeek-R1 на сложных контрольных тестах, при этом отвечая быстрее. Она поддерживает структурированные вызовы инструментов, кодовые агенты и поисковые агенты, что делает её подходящей для исследований, кодирования и агентных рабочих процессов.

Входные данные:
21 ₽ / 1M
Текст
Исходящие данные:
79 ₽ / 1M
Текст
Контекст:
164K
Входящие токены за 1M:
21 ₽
Исходящие токены за 1M:
79 ₽
Скопировано в буфер обмена!
xAI
2M

Grok 4 Fast — это последняя мультимодальная модель от xAI с передовой экономичностью и контекстным окном на 2 миллиона токенов. Она представлена в двух вариантах: без рассуждений и с рассуждениями. Подробнее о модели можно прочитать в новостном посте xAI. Режим рассуждений можно включить с помощью параметра reasoning enabled в API.

Подсказки и завершения в Grok 4 Fast Free могут использоваться xAI для улучшения будущих моделей.

Входные данные:
20 ₽ / 1M
Текст
Изображения
Исходящие данные:
50 ₽ / 1M
Текст
Контекст:
2M
Входящие токены за 1M:
20 ₽
Исходящие токены за 1M:
50 ₽
Скопировано в буфер обмена!
Alibaba
131K

Tongyi DeepResearch — это агентная крупная языковая модель, разработанная Tongyi Lab, с общим количеством параметров в 30 миллиардов, из которых активируется только 3 миллиарда на каждый токен. Она оптимизирована для долгосрочных задач, требующих глубокого поиска информации, и демонстрирует передовую производительность на таких тестах, как Humanity’s Last Exam, BrowserComp, BrowserComp-ZH, WebWalkerQA, GAIA, xbench-DeepSearch и FRAMES. Это делает её превосходной для сложного агентного поиска, рассуждений и многослойного решения проблем по сравнению с предыдущими моделями.

Модель включает полностью автоматизированный синтетический конвейер данных для масштабируемого предобучения, тонкой настройки и обучения с подкреплением. Она использует крупномасштабное непрерывное предобучение на разнообразных агентных данных для улучшения рассуждений и поддержания актуальности. Также в ней реализовано сквозное обучение с подкреплением на политике с использованием индивидуализированной оптимизации групповой относительной политики, включая градиенты на уровне токенов и фильтрацию отрицательных образцов для стабильного обучения. Модель поддерживает ReAct для проверки основных способностей и режим ‘Heavy’ на основе IterResearch для максимальной производительности за счет масштабирования во время тестирования. Она идеально подходит для продвинутых исследовательских агентов, использования инструментов и интенсивных рабочих процессов вывода.

Входные данные:
9 ₽ / 1M
Текст
Исходящие данные:
45 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
45 ₽
Скопировано в буфер обмена!
Qwen
1M

Qwen3 Coder Flash — это быстрая и экономичная версия проприетарной модели Qwen3 Coder Plus от Alibaba. Это мощная модель кодирования, специализирующаяся на автономном программировании через вызов инструментов и взаимодействие с окружением, сочетая навыки кодирования с универсальными способностями общего назначения.

Входные данные:
19 ₽ / 1M
Текст
Исходящие данные:
98 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
19 ₽
Исходящие токены за 1M:
98 ₽
Скопировано в буфер обмена!
Qwen
128K

Qwen3-Next-80B-A3B-Thinking — это модель чата, ориентированная на рассуждения, в линейке Qwen3-Next, которая по умолчанию выводит структурированные следы “мышления”. Она разработана для сложных многошаговых задач: математических доказательств, синтеза/отладки кода, логики и агентного планирования, и демонстрирует высокие результаты в областях знаний, рассуждений, кодирования, согласования и многоязычных оценок. По сравнению с предыдущими вариантами Qwen3, она акцентирует внимание на стабильности при длинных цепочках размышлений и эффективном масштабировании во время вывода, а также настроена на выполнение сложных инструкций с уменьшением повторяющегося или нецелевого поведения.

Модель подходит для агентных фреймворков и использования инструментов (вызов функций), рабочих процессов с интенсивным извлечением данных и стандартизированных тестов, где требуются пошаговые решения. Она поддерживает длинные, детализированные завершения и использует ориентированные на пропускную способность техники (например, предсказание нескольких токенов) для более быстрого генерации. Обратите внимание, что она работает только в режиме мышления.

Входные данные:
30 ₽ / 1M
Текст
Исходящие данные:
30 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
30 ₽
Исходящие токены за 1M:
30 ₽
Скопировано в буфер обмена!
Qwen
262K

Qwen3-Next-80B-A3B-Instruct — это модель чата, настроенная на выполнение инструкций в серии Qwen3-Next, оптимизированная для быстрого и стабильного ответа без следов “размышлений”. Она нацелена на выполнение сложных задач в областях рассуждений, генерации кода, вопросов и ответов на основе знаний, а также многоязычного использования, оставаясь при этом надежной в отношении согласованности и форматирования. В сравнении с предыдущими вариантами инструкций Qwen3, она сосредоточена на более высокой пропускной способности и стабильности при обработке сверхдлинных вводов и многоходовых диалогов, что делает её хорошо подходящей для RAG, использования инструментов и агентных рабочих процессов, требующих последовательных окончательных ответов, а не видимой цепочки размышлений.

Модель использует масштабно-эффективное обучение и декодирование для улучшения эффективности параметров и скорости вывода, и была проверена на широком наборе публичных эталонов, где она достигает или приближается к более крупным системам Qwen3 в нескольких категориях, превосходя более ранние средние базовые показатели. Она лучше всего используется в качестве общего помощника, помощника по коду и решателя задач с длинным контекстом в производственных условиях, где предпочтительны детерминированные, следующие инструкциям выводы.

Входные данные:
9 ₽ / 1M
Текст
Исходящие данные:
78 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
78 ₽
Скопировано в буфер обмена!
Meituan
131K

LongCat-Flash-Chat — это крупномасштабная модель Mixture-of-Experts (MoE) с общим числом параметров 560 миллиардов, из которых 18,6–31,3 миллиарда (в среднем около 27 миллиардов) динамически активируются для каждого входного сигнала. Она вводит дизайн MoE с подключением через сокращенные пути, чтобы уменьшить накладные расходы на коммуникацию и достичь высокой пропускной способности, сохраняя стабильность обучения с помощью передовых стратегий масштабирования, таких как перенос гиперпараметров, детерминированные вычисления и многоэтапная оптимизация.

Этот выпуск, LongCat-Flash-Chat, представляет собой базовую модель без способности к мышлению, оптимизированную для разговорных и агентных задач. Она поддерживает длинные контекстные окна до 128 тысяч токенов и демонстрирует конкурентоспособную производительность в области рассуждений, программирования, следования инструкциям и тестов по различным областям, с особой силой в использовании инструментов и сложных многоэтапных взаимодействиях.

Входные данные:
20 ₽ / 1M
Текст
Исходящие данные:
80 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
20 ₽
Исходящие токены за 1M:
80 ₽
Скопировано в буфер обмена!
Qwen
1M

Qwen Plus 0728, основанная на базовой модели Qwen3, представляет собой гибридную модель рассуждений с контекстом в 1 миллион, обеспечивающую сбалансированное сочетание производительности, скорости и стоимости.

Входные данные:
26 ₽ / 1M
Текст
Исходящие данные:
78 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
26 ₽
Исходящие токены за 1M:
78 ₽
Скопировано в буфер обмена!
Qwen
1M

Qwen Plus 0728, основанная на базовой модели Qwen3, представляет собой гибридную модель рассуждений с контекстом в 1 миллион, обеспечивающую сбалансированное сочетание производительности, скорости и стоимости.

Входные данные:
26 ₽ / 1M
Текст
Исходящие данные:
78 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
26 ₽
Исходящие токены за 1M:
78 ₽
Скопировано в буфер обмена!
NVIDIA
131K

NVIDIA-Nemotron-Nano-9B-v2 — это крупная языковая модель (LLM), разработанная с нуля компанией NVIDIA и предназначенная как для задач, требующих рассуждений, так и для задач, не требующих их. Она отвечает на запросы и задачи пользователей, сначала генерируя цепочку рассуждений, а затем завершая окончательным ответом.

Способности модели к рассуждению могут быть управляемы с помощью системной подсказки. Если пользователь предпочитает, чтобы модель предоставляла окончательный ответ без промежуточных цепочек рассуждений, её можно настроить соответствующим образом.

Входные данные:
4 ₽ / 1M
Текст
Исходящие данные:
16 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
4 ₽
Исходящие токены за 1M:
16 ₽
Скопировано в буфер обмена!
Moonshot AI
262K

Kimi K2 0905 — это обновление за сентябрь Kimi K2 0711. Это крупномасштабная языковая модель Mixture-of-Experts (MoE), разработанная Moonshot AI, с общим числом параметров в 1 триллион и 32 миллиардами активных параметров на каждый проход. Она поддерживает инференс с длинным контекстом до 256 тысяч токенов, что является расширением по сравнению с предыдущими 128 тысячами.

Это обновление улучшает агентное кодирование с более высокой точностью и лучшей обобщаемостью на различных структурах, а также улучшает фронтенд-кодирование с более эстетичными и функциональными результатами для веб, 3D и связанных задач. Kimi K2 оптимизирована для агентных возможностей, включая продвинутое использование инструментов, рассуждение и синтез кода. Она превосходит в кодировании (LiveCodeBench, SWE-bench), рассуждении (ZebraLogic, GPQA) и использовании инструментов (Tau2, AceBench). Модель обучена с использованием новой стекировки, включающей оптимизатор MuonClip для стабильного крупномасштабного обучения MoE.

Входные данные:
40 ₽ / 1M
Текст
Исходящие данные:
201 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
40 ₽
Исходящие токены за 1M:
201 ₽
Скопировано в буфер обмена!
Moonshot AI
131K

Kimi K2 0905 — это сентябрьское обновление Kimi K2 0711. Это крупномасштабная языковая модель типа Mixture-of-Experts (MoE), разработанная Moonshot AI, с общим числом параметров в 1 триллион и 32 миллиардами активных параметров на каждый прямой проход. Она поддерживает вывод с длинным контекстом до 256 тысяч токенов, что больше по сравнению с предыдущими 128 тысячами.

Это обновление улучшает агентное кодирование с более высокой точностью и лучшей обобщаемостью по различным шаблонам, а также улучшает фронтенд-кодирование с более эстетичными и функциональными результатами для веб, 3D и связанных задач. Kimi K2 оптимизирована для агентных возможностей, включая продвинутое использование инструментов, рассуждение и синтез кода. Она превосходит в кодировании (LiveCodeBench, SWE-bench), рассуждении (ZebraLogic, GPQA) и использовании инструментов (Tau2, AceBench) по различным тестам. Модель обучена с использованием новой стеки, включающей оптимизатор MuonClip для стабильного крупномасштабного обучения MoE.

Входные данные:
40 ₽ / 1M
Текст
Исходящие данные:
201 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
40 ₽
Исходящие токены за 1M:
201 ₽
Скопировано в буфер обмена!
Qwen
33K

Qwen3-30B-A3B-Thinking-2507 — это модель рассуждений с 30 миллиардами параметров, основанная на смеси экспертов, оптимизированная для сложных задач, требующих расширенного многошагового мышления. Модель специально разработана для “режима мышления”, где внутренние рассуждения отделены от окончательных ответов.

По сравнению с предыдущими версиями Qwen3-30B, эта версия улучшает производительность в области логического мышления, математики, науки, программирования и многоязычных тестов. Она также демонстрирует более сильное следование инструкциям, использование инструментов и соответствие человеческим предпочтениям. Благодаря более высокой эффективности рассуждений и расширенным бюджетам вывода, она лучше всего подходит для передовых исследований, конкурентного решения проблем и агентных приложений, требующих структурированного долгосрочного мышления.

Входные данные:
9 ₽ / 1M
Текст
Исходящие данные:
30 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
30 ₽