Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (72)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Qwen
1M

Qwen3 Coder Flash — это быстрая и экономичная версия проприетарной модели Qwen3 Coder Plus от Alibaba. Это мощная модель кодирования, специализирующаяся на автономном программировании через вызов инструментов и взаимодействие с окружением, сочетая навыки кодирования с универсальными способностями общего назначения.

Входные данные:
18 ₽ / 1M
Текст
Исходящие данные:
94 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
18 ₽
Исходящие токены за 1M:
94 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen3-Next-80B-A3B-Thinking — это модель чата, ориентированная на рассуждения, в линейке Qwen3-Next, которая по умолчанию выводит структурированные следы “мышления”. Она разработана для сложных многошаговых задач: математических доказательств, синтеза/отладки кода, логики и агентного планирования, и демонстрирует высокие результаты в областях знаний, рассуждений, кодирования, согласования и многоязычных оценок. По сравнению с предыдущими вариантами Qwen3, она акцентирует внимание на стабильности при длинных цепочках размышлений и эффективном масштабировании во время вывода, а также настроена на выполнение сложных инструкций с уменьшением повторяющегося или нецелевого поведения.

Модель подходит для агентных фреймворков и использования инструментов (вызов функций), рабочих процессов с интенсивным извлечением данных и стандартизированных тестов, где требуются пошаговые решения. Она поддерживает длинные, детализированные завершения и использует ориентированные на пропускную способность техники (например, предсказание нескольких токенов) для более быстрого генерации. Обратите внимание, что она работает только в режиме мышления.

Входные данные:
9 ₽ / 1M
Текст
Исходящие данные:
75 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
75 ₽
Скопировано в буфер обмена!
Qwen
262K

Qwen3-Next-80B-A3B-Instruct — это модель чата, настроенная на выполнение инструкций в серии Qwen3-Next, оптимизированная для быстрого и стабильного ответа без следов “размышлений”. Она нацелена на выполнение сложных задач в областях рассуждений, генерации кода, вопросов и ответов на основе знаний, а также многоязычного использования, оставаясь при этом надежной в отношении согласованности и форматирования. В сравнении с предыдущими вариантами инструкций Qwen3, она сосредоточена на более высокой пропускной способности и стабильности при обработке сверхдлинных вводов и многоходовых диалогов, что делает её хорошо подходящей для RAG, использования инструментов и агентных рабочих процессов, требующих последовательных окончательных ответов, а не видимой цепочки размышлений.

Модель использует масштабно-эффективное обучение и декодирование для улучшения эффективности параметров и скорости вывода, и была проверена на широком наборе публичных эталонов, где она достигает или приближается к более крупным системам Qwen3 в нескольких категориях, превосходя более ранние средние базовые показатели. Она лучше всего используется в качестве общего помощника, помощника по коду и решателя задач с длинным контекстом в производственных условиях, где предпочтительны детерминированные, следующие инструкциям выводы.

Входные данные:
9 ₽ / 1M
Текст
Исходящие данные:
75 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
75 ₽
Скопировано в буфер обмена!
Qwen
1M

Qwen Plus 0728, основанная на базовой модели Qwen3, представляет собой гибридную модель рассуждений с контекстом в 1 миллион, обеспечивающую сбалансированное сочетание производительности, скорости и стоимости.

Входные данные:
25 ₽ / 1M
Текст
Исходящие данные:
75 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
25 ₽
Исходящие токены за 1M:
75 ₽
Скопировано в буфер обмена!
Qwen
1M

Qwen Plus 0728, основанная на базовой модели Qwen3, представляет собой гибридную модель рассуждений с контекстом в 1 миллион, обеспечивающую сбалансированное сочетание производительности, скорости и стоимости.

Входные данные:
25 ₽ / 1M
Текст
Исходящие данные:
75 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
25 ₽
Исходящие токены за 1M:
75 ₽
Скопировано в буфер обмена!
NVIDIA
131K

NVIDIA-Nemotron-Nano-9B-v2 — это крупная языковая модель (LLM), разработанная с нуля компанией NVIDIA и предназначенная как для задач, требующих рассуждений, так и для задач, не требующих их. Она отвечает на запросы и задачи пользователей, сначала генерируя цепочку рассуждений, а затем завершая окончательным ответом.

Способности модели к рассуждению могут быть управляемы с помощью системной подсказки. Если пользователь предпочитает, чтобы модель предоставляла окончательный ответ без промежуточных цепочек рассуждений, её можно настроить соответствующим образом.

Входные данные:
3 ₽ / 1M
Текст
Исходящие данные:
15 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
3 ₽
Исходящие токены за 1M:
15 ₽
Скопировано в буфер обмена!
Moonshot AI
262K

Kimi K2 0905 — это обновление за сентябрь Kimi K2 0711. Это крупномасштабная языковая модель Mixture-of-Experts (MoE), разработанная Moonshot AI, с общим числом параметров в 1 триллион и 32 миллиардами активных параметров на каждый проход. Она поддерживает инференс с длинным контекстом до 256 тысяч токенов, что является расширением по сравнению с предыдущими 128 тысячами.

Это обновление улучшает агентное кодирование с более высокой точностью и лучшей обобщаемостью на различных структурах, а также улучшает фронтенд-кодирование с более эстетичными и функциональными результатами для веб, 3D и связанных задач. Kimi K2 оптимизирована для агентных возможностей, включая продвинутое использование инструментов, рассуждение и синтез кода. Она превосходит в кодировании (LiveCodeBench, SWE-bench), рассуждении (ZebraLogic, GPQA) и использовании инструментов (Tau2, AceBench). Модель обучена с использованием новой стекировки, включающей оптимизатор MuonClip для стабильного крупномасштабного обучения MoE.

Входные данные:
38 ₽ / 1M
Текст
Исходящие данные:
194 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
38 ₽
Исходящие токены за 1M:
194 ₽
Скопировано в буфер обмена!
Moonshot AI
262K

Kimi K2 0905 — это сентябрьское обновление Kimi K2 0711. Это крупномасштабная языковая модель типа Mixture-of-Experts (MoE), разработанная Moonshot AI, с общим числом параметров в 1 триллион и 32 миллиардами активных параметров на каждый прямой проход. Она поддерживает вывод с длинным контекстом до 256 тысяч токенов, что больше по сравнению с предыдущими 128 тысячами.

Это обновление улучшает агентное кодирование с более высокой точностью и лучшей обобщаемостью по различным шаблонам, а также улучшает фронтенд-кодирование с более эстетичными и функциональными результатами для веб, 3D и связанных задач. Kimi K2 оптимизирована для агентных возможностей, включая продвинутое использование инструментов, рассуждение и синтез кода. Она превосходит в кодировании (LiveCodeBench, SWE-bench), рассуждении (ZebraLogic, GPQA) и использовании инструментов (Tau2, AceBench) по различным тестам. Модель обучена с использованием новой стеки, включающей оптимизатор MuonClip для стабильного крупномасштабного обучения MoE.

Входные данные:
38 ₽ / 1M
Текст
Исходящие данные:
194 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
38 ₽
Исходящие токены за 1M:
194 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen3-30B-A3B-Thinking-2507 — это модель рассуждений с 30 миллиардами параметров, основанная на смеси экспертов, оптимизированная для сложных задач, требующих расширенного многошагового мышления. Модель специально разработана для “режима мышления”, где внутренние рассуждения отделены от окончательных ответов.

По сравнению с предыдущими версиями Qwen3-30B, эта версия улучшает производительность в области логического мышления, математики, науки, программирования и многоязычных тестов. Она также демонстрирует более сильное следование инструкциям, использование инструментов и соответствие человеческим предпочтениям. Благодаря более высокой эффективности рассуждений и расширенным бюджетам вывода, она лучше всего подходит для передовых исследований, конкурентного решения проблем и агентных приложений, требующих структурированного долгосрочного мышления.

Входные данные:
8 ₽ / 1M
Текст
Исходящие данные:
29 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
8 ₽
Исходящие токены за 1M:
29 ₽
Скопировано в буфер обмена!
Yandex
33K

Обновлённая YandexGPT 5.1 Pro — лучшая модель Яндекса для обработки текстов. На потоке, в котором сочетаются вопросы пользователей и сложные задачи, востребованные в бизнес-сфере, она превосходит предыдущую модель и достигает уровня GPT-4.1 компании OpenAI. Также YandexGPT 5.1 Pro эффективнее работает с системным промтом и почти вдвое реже прошлой версии даёт выдуманные ответы.

Входные данные:
515 ₽ / 1M
Текст
Исходящие данные:
515 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
515 ₽
Исходящие токены за 1M:
515 ₽
Скопировано в буфер обмена!
xAI
256K

Grok Code Fast 1 — это быстрый и экономичный модель рассуждений, которая превосходно справляется с агентским кодированием. Благодаря видимым следам рассуждений в ответе, разработчики могут направлять Grok Code для создания высококачественных рабочих процессов.

Входные данные:
19 ₽ / 1M
Текст
Исходящие данные:
145 ₽ / 1M
Текст
Контекст:
256K
Входящие токены за 1M:
19 ₽
Исходящие токены за 1M:
145 ₽
Скопировано в буфер обмена!
Nous Research
131K

Hermes 4 70B — это гибридная модель рассуждений от Nous Research, основанная на Meta-Llama-3.1-70B. Она вводит тот же гибридный режим, что и более крупный выпуск 405B, позволяя модели либо отвечать напрямую, либо генерировать явные следы рассуждений ... перед ответом. Пользователи могут управлять поведением рассуждений с помощью булевой переменной reasoning enabled.

Этот вариант 70B обучен на расширенном корпусе пост-тренировочных данных (~60 миллиардов токенов), с акцентом на проверенные данные рассуждений, что приводит к улучшениям в математике, программировании, STEM, логике и структурированных выходах, сохраняя при этом общую производительность ассистента. Он поддерживает режим JSON, соблюдение схем, вызов функций и использование инструментов, и разработан для большей управляемости с уменьшением количества отказов.

Входные данные:
12 ₽ / 1M
Текст
Исходящие данные:
38 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
12 ₽
Исходящие токены за 1M:
38 ₽
Скопировано в буфер обмена!
Nous Research
131K

Hermes 4 — это крупномасштабная модель рассуждений, построенная на базе Meta-Llama-3.1-405B и выпущенная Nous Research. Она вводит гибридный режим рассуждений, где модель может выбирать между внутренним обдумыванием с использованием следов ... или прямым ответом, предлагая гибкость между скоростью и глубиной. Пользователи могут управлять поведением рассуждений с помощью булевой переменной reasoning enabled.

Модель настроена на выполнение инструкций с расширенным корпусом пост-тренировочных данных (~60 миллиардов токенов), акцентируя внимание на следах рассуждений, что улучшает производительность в математике, программировании, STEM и логических рассуждениях, сохраняя при этом широкую полезность в качестве ассистента. Она также поддерживает структурированные выводы, включая режим JSON, соблюдение схем, вызов функций и использование инструментов. Hermes 4 обучена для управляемости, снижения частоты отказов и выравнивания в сторону нейтрального, ориентированного на пользователя поведения.

Входные данные:
97 ₽ / 1M
Текст
Исходящие данные:
291 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
97 ₽
Исходящие токены за 1M:
291 ₽
Скопировано в буфер обмена!
DeepSeek
33K

DeepSeek-V3.1 — это крупная гибридная модель рассуждений (671 миллиард параметров, 37 миллиардов активных), поддерживающая как режимы мышления, так и немышления с помощью шаблонов подсказок. Она расширяет базу DeepSeek-V3 с помощью двухфазного процесса обучения на длинных контекстах, достигая до 128 тысяч токенов, и использует микромасштабирование FP8 для эффективного вывода. Пользователи могут управлять поведением рассуждений с помощью булевой переменной reasoning enabled.

Модель улучшает использование инструментов, генерацию кода и эффективность рассуждений, достигая производительности, сопоставимой с DeepSeek-R1 на сложных тестах, при этом реагируя быстрее. Она поддерживает структурированные вызовы инструментов, кодовые агенты и поисковые агенты, что делает её подходящей для исследований, программирования и агентных рабочих процессов.

Она является преемником модели DeepSeek V3-0324 и хорошо справляется с разнообразными задачами.

Входные данные:
20 ₽ / 1M
Текст
Исходящие данные:
76 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
20 ₽
Исходящие токены за 1M:
76 ₽
Скопировано в буфер обмена!
OpenAI
128K

Модель gpt-4o-audio-preview добавляет поддержку аудиовходов в качестве подсказок. Это улучшение позволяет модели обнаруживать нюансы в аудиозаписях и добавлять глубину в создаваемые пользовательские впечатления. Аудиовыходы в настоящее время не поддерживаются.

Входные данные:
243 ₽ / 1M
Аудио
Текст
Исходящие данные:
972 ₽ / 1M
Текст
Аудио
Контекст:
128K
Входящие токены за 1M:
243 ₽
Исходящие токены за 1M:
972 ₽