Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (66)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Qwen
262K

Qwen3-235B-A22B-Instruct-2507 — это многоязычная языковая модель с настройкой на выполнение инструкций, основанная на архитектуре Qwen3-235B, с 22 миллиардами активных параметров на каждый проход вперед. Она оптимизирована для генерации текста общего назначения, включая следование инструкциям, логическое рассуждение, математику, код и использование инструментов. Модель поддерживает нативную длину контекста в 262 тысячи и не реализует “режим мышления” ( блоки).

По сравнению с базовым вариантом, эта версия обеспечивает значительные улучшения в охвате знаний, рассуждениях на длинных контекстах, оценках кодирования и согласованности с открытыми задачами. Она особенно сильна в многоязычном понимании, математических рассуждениях (например, AIME, HMMT) и оценках согласованности, таких как Arena-Hard и WritingBench.

Входные данные:
7 ₽ / 1M
Текст
Исходящие данные:
10 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
7 ₽
Исходящие токены за 1M:
10 ₽
Скопировано в буфер обмена!
Moonshot AI
131K

Kimi K2 Instruct — это крупномасштабная языковая модель с архитектурой Mixture-of-Experts (MoE), разработанная компанией Moonshot AI, с общим числом параметров в 1 триллион и 32 миллиарда активных параметров на каждый проход. Она оптимизирована для агентных возможностей, включая продвинутое использование инструментов, рассуждение и синтез кода. Kimi K2 превосходит по многим критериям, особенно в области кодирования (LiveCodeBench, SWE-bench), рассуждений (ZebraLogic, GPQA) и использования инструментов (Tau2, AceBench). Она поддерживает вывод в длинном контексте до 128 тысяч токенов и разработана с использованием новой обучающей архитектуры, включающей оптимизатор MuonClip для стабильного крупномасштабного обучения MoE.

Входные данные:
55 ₽ / 1M
Текст
Исходящие данные:
221 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
55 ₽
Исходящие токены за 1M:
221 ₽
Скопировано в буфер обмена!
Mistral AI
131K

Devstral Medium — это высокопроизводительная модель генерации кода и агентного мышления, разработанная совместно Mistral AI и All Hands AI. Она позиционируется как шаг вперед по сравнению с Devstral Small и достигает 61,6% на SWE-Bench Verified, опережая Gemini 2.5 Pro и GPT-4.1 в задачах, связанных с кодом, при значительно меньших затратах. Модель предназначена для обобщения различных стилей запросов и использования инструментов в кодовых агентах и фреймворках.

Devstral Medium доступна только через API (без открытых весов) и поддерживает корпоративное развертывание на частной инфраструктуре с возможностью дополнительной настройки.

Входные данные:
40 ₽ / 1M
Текст
Исходящие данные:
201 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
40 ₽
Исходящие токены за 1M:
201 ₽
Скопировано в буфер обмена!
Mistral AI
131K

Devstral Small 1.1 — это языковая модель с открытыми весами для агентов в области программной инженерии, содержащая 24 миллиарда параметров, разработанная Mistral AI в сотрудничестве с All Hands AI. Модель доработана на основе Mistral Small 3.1 и выпущена под лицензией Apache 2.0. Она обладает контекстным окном в 128 тысяч токенов и поддерживает как вызовы функций в стиле Mistral, так и форматы вывода XML.

Разработанная для агентных рабочих процессов кодирования, Devstral Small 1.1 оптимизирована для таких задач, как исследование кодовой базы, редактирование нескольких файлов и интеграция в автономные агенты разработки, такие как OpenHands и Cline. Она достигает 53,6% на SWE-Bench Verified, превосходя все другие открытые модели на этом бенчмарке, оставаясь при этом достаточно легкой для работы на одном GPU 4090 или машине с чипом Apple. Модель использует токенизатор Tekken с вокабуляром в 131 тысячу и может быть развернута через vLLM, Transformers, Ollama, LM Studio и другие среды, совместимые с OpenAI.

Входные данные:
10 ₽ / 1M
Текст
Исходящие данные:
30 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
10 ₽
Исходящие токены за 1M:
30 ₽
Скопировано в буфер обмена!
Tencent
131K

Hunyuan-A13B — это языковая модель Mixture-of-Experts (MoE) с 13 миллиардами активных параметров, разработанная компанией Tencent, с общим количеством параметров 80 миллиардов и поддержкой рассуждений через Chain-of-Thought. Она демонстрирует конкурентоспособные результаты в тестах по математике, науке, программированию и задачам многократного рассуждения, сохраняя при этом высокую эффективность вывода благодаря Grouped Query Attention (GQA) и поддержке квантования (FP8, GPTQ и др.).

Входные данные:
14 ₽ / 1M
Текст
Исходящие данные:
57 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
14 ₽
Исходящие токены за 1M:
57 ₽
Скопировано в буфер обмена!
TNGtech
164K

DeepSeek-TNG-R1T2-Chimera — это модель второго поколения Chimera от TNG Tech. Это модель генерации текста с 671 миллиардами параметров, представляющая собой смесь экспертов, собранная из контрольных точек DeepSeek-AI: R1-0528, R1 и V3-0324 с использованием слияния Assembly-of-Experts. Трехродительская конструкция обеспечивает высокую производительность в области рассуждений, работая примерно на 20 % быстрее, чем оригинальная R1, и более чем в 2 раза быстрее, чем R1-0528 под управлением vLLM, что дает выгодное соотношение затрат и интеллекта. Контрольная точка поддерживает контексты до 60 тысяч токенов в стандартном использовании (проверено до ~130 тысяч) и сохраняет стабильное поведение токена , что делает ее подходящей для анализа с длинным контекстом, диалогов и других задач открытой генерации.

Входные данные:
25 ₽ / 1M
Текст
Исходящие данные:
85 ₽ / 1M
Текст
Контекст:
164K
Входящие токены за 1M:
25 ₽
Исходящие токены за 1M:
85 ₽
Скопировано в буфер обмена!
Morph
262K

Модель Morph с высокой точностью для сложных изменений кода. ~4,500 токенов/сек с точностью 98% для точных преобразований кода.

Модель требует, чтобы запрос был в следующем формате:

{инструкция}

{исходный_код}

{фрагмент_изменения}

Функция нулевого сохранения данных включена для Morph. Узнайте больше об этой модели в их документации

Входные данные:
90 ₽ / 1M
Текст
Исходящие данные:
191 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
90 ₽
Исходящие токены за 1M:
191 ₽
Скопировано в буфер обмена!
Morph
82K

Самая быстрая модель Morph для применения изменений в коде. ~10,500 токенов/сек с точностью 96% для быстрых преобразований кода.

Модель требует, чтобы запрос был в следующем формате:

{инструкция}

{исходный_код}

{фрагмент_изменений}

Функция нулевого сохранения данных включена для Morph. Узнайте больше об этой модели в их документации

Входные данные:
80 ₽ / 1M
Текст
Исходящие данные:
121 ₽ / 1M
Текст
Контекст:
82K
Входящие токены за 1M:
80 ₽
Исходящие токены за 1M:
121 ₽
Скопировано в буфер обмена!
Baidu
123K

ERNIE-4.5-VL-424B-A47B — это мультимодальная модель типа Mixture-of-Experts (MoE) из серии ERNIE 4.5 от Baidu, имеющая 424 миллиарда общих параметров с 47 миллиардами активных на каждый токен. Она обучена совместно на текстовых и изображенческих данных с использованием гетерогенной архитектуры MoE и маршрутизации, изолированной по модальностям, что позволяет осуществлять высокоточное кросс-модальное рассуждение, понимание изображений и генерацию длинных контекстов (до 131 тысячи токенов). Модель дообучена с использованием таких техник, как SFT, DPO, UPO и RLVR, и поддерживает как режимы вывода с “мышлением”, так и без него. Разработанная для задач, связанных с взаимодействием зрения и языка на английском и китайском языках, она оптимизирована для эффективного масштабирования и может работать при квантовании в 4 бита/8 бит.

Входные данные:
42 ₽ / 1M
Изображения
Текст
Исходящие данные:
126 ₽ / 1M
Текст
Контекст:
123K
Входящие токены за 1M:
42 ₽
Исходящие токены за 1M:
126 ₽
Скопировано в буфер обмена!
Baidu
123K

ERNIE-4.5-300B-A47B — это языковая модель с параметрами 300B типа Mixture-of-Experts (MoE), разработанная компанией Baidu в рамках серии ERNIE 4.5. Она активирует 47B параметров на каждый токен и поддерживает генерацию текста как на английском, так и на китайском языках. Оптимизированная для высокопроизводительного вывода и эффективного масштабирования, она использует гетерогенную структуру MoE с передовыми стратегиями маршрутизации и квантизации, включая форматы FP8 и 2-бит. Эта версия специально настроена для задач, связанных исключительно с языком, и поддерживает рассуждения, параметры инструментов и увеличенные длины контекста до 131k токенов. Подходит для универсальных приложений LLM с высокими требованиями к рассуждению и пропускной способности.

Входные данные:
28 ₽ / 1M
Текст
Исходящие данные:
110 ₽ / 1M
Текст
Контекст:
123K
Входящие токены за 1M:
28 ₽
Исходящие токены за 1M:
110 ₽
Скопировано в буфер обмена!
Inception
128K

Mercury — это первая диффузионная большая языковая модель (dLLM). Применяя прорывной подход дискретной диффузии, модель работает в 5-10 раз быстрее, чем даже оптимизированные по скорости модели, такие как GPT-4.1 Nano и Claude 3.5 Haiku, при этом соответствуя их производительности. Скорость Mercury позволяет разработчикам обеспечивать отзывчивый пользовательский опыт, включая голосовых агентов, поисковые интерфейсы и чат-боты. Подробнее читайте в блог-посте здесь.

Входные данные:
25 ₽ / 1M
Текст
Исходящие данные:
75 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
25 ₽
Исходящие токены за 1M:
75 ₽
Скопировано в буфер обмена!
Mistral AI
131K

Mistral-Small-3.2-24B-Instruct-2506 — это обновленная модель с 24 миллиардами параметров от Mistral, оптимизированная для выполнения инструкций, уменьшения повторений и улучшенного вызова функций. По сравнению с версией 3.1, версия 3.2 значительно улучшает точность на WildBench и Arena Hard, сокращает бесконечные генерации и обеспечивает улучшения в использовании инструментов и задачах с структурированным выводом.

Она поддерживает ввод изображений и текста с структурированным выводом, вызов функций/инструментов и демонстрирует высокую производительность в кодировании (HumanEval+, MBPP), STEM (MMLU, MATH, GPQA) и визуальных тестах (ChartQA, DocVQA).

Входные данные:
6 ₽ / 1M
Изображения
Текст
Исходящие данные:
18 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
6 ₽
Исходящие токены за 1M:
18 ₽
Скопировано в буфер обмена!
Minimax
1M

MiniMax-M1 — это крупномасштабная модель рассуждений с открытым весом, разработанная для расширенного контекста и высокоэффективного вывода. Она использует гибридную архитектуру Mixture-of-Experts (MoE) в сочетании с пользовательским механизмом “молниеносного внимания”, что позволяет обрабатывать длинные последовательности — до 1 миллиона токенов — при сохранении конкурентоспособной эффективности FLOP. С общим количеством параметров 456 миллиардов и 45,9 миллиарда активных на токен, этот вариант оптимизирован для сложных, многошаговых задач рассуждения.

Обученная с помощью пользовательского конвейера обучения с подкреплением (CISPO), M1 превосходит в понимании длинного контекста, программной инженерии, использовании агентных инструментов и математическом рассуждении. Тесты показывают высокие результаты на FullStackBench, SWE-bench, MATH, GPQA и TAU-Bench, часто превосходя другие открытые модели, такие как DeepSeek R1 и Qwen3-235B.

Входные данные:
44 ₽ / 1M
Текст
Исходящие данные:
177 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
44 ₽
Исходящие токены за 1M:
177 ₽
Скопировано в буфер обмена!
Google
1M

Gemini 2.5 Flash — это передовая рабочая модель от Google, специально разработанная для выполнения сложных задач в области рассуждений, программирования, математики и науки. Она включает встроенные возможности “мышления”, что позволяет ей давать ответы с большей точностью и учитывать нюансы контекста.

Входные данные:
30 ₽ / 1M
Файл
Изображения
Текст
Аудио
Видео
Исходящие данные:
252 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
30 ₽
Исходящие токены за 1M:
252 ₽
Скопировано в буфер обмена!
Google
1M

Gemini 2.5 Pro — это передовая модель ИИ от Google, разработанная для выполнения сложных задач в области рассуждений, программирования, математики и науки. Она использует возможности «мышления», что позволяет ей рассуждать при формировании ответов с повышенной точностью и тонким учетом контекста. Gemini 2.5 Pro демонстрирует высочайшую производительность по нескольким критериям, включая первое место в рейтинге LMArena, что отражает превосходное соответствие предпочтениям человека и способности решать сложные задачи.

Входные данные:
126 ₽ / 1M
Текст
Изображения
Файл
Аудио
Видео
Исходящие данные:
1008 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
126 ₽
Исходящие токены за 1M:
1008 ₽