Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (72)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
TNGtech
164K

DeepSeek-TNG-R1T2-Chimera — это модель второго поколения Chimera от TNG Tech. Это модель генерации текста с 671 миллиардами параметров, представляющая собой смесь экспертов, собранная из контрольных точек DeepSeek-AI: R1-0528, R1 и V3-0324 с использованием слияния Assembly-of-Experts. Трехродительская конструкция обеспечивает высокую производительность в области рассуждений, работая примерно на 20 % быстрее, чем оригинальная R1, и более чем в 2 раза быстрее, чем R1-0528 под управлением vLLM, что дает выгодное соотношение затрат и интеллекта. Контрольная точка поддерживает контексты до 60 тысяч токенов в стандартном использовании (проверено до ~130 тысяч) и сохраняет стабильное поведение токена , что делает ее подходящей для анализа с длинным контекстом, диалогов и других задач открытой генерации.

Входные данные:
29 ₽ / 1M
Текст
Исходящие данные:
106 ₽ / 1M
Текст
Контекст:
164K
Входящие токены за 1M:
29 ₽
Исходящие токены за 1M:
106 ₽
Скопировано в буфер обмена!
Morph
262K

Модель Morph с высокой точностью для сложных изменений кода. ~4,500 токенов/сек с точностью 98% для точных преобразований кода.

Модель требует, чтобы запрос был в следующем формате:

{инструкция}

{исходный_код}

{фрагмент_изменения}

Функция нулевого сохранения данных включена для Morph. Узнайте больше об этой модели в их документации

Входные данные:
87 ₽ / 1M
Текст
Исходящие данные:
184 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
87 ₽
Исходящие токены за 1M:
184 ₽
Скопировано в буфер обмена!
Morph
82K

Самая быстрая модель Morph для применения изменений в коде. ~10,500 токенов/сек с точностью 96% для быстрых преобразований кода.

Модель требует, чтобы запрос был в следующем формате:

{инструкция}

{исходный_код}

{фрагмент_изменений}

Функция нулевого сохранения данных включена для Morph. Узнайте больше об этой модели в их документации

Входные данные:
77 ₽ / 1M
Текст
Исходящие данные:
116 ₽ / 1M
Текст
Контекст:
82K
Входящие токены за 1M:
77 ₽
Исходящие токены за 1M:
116 ₽
Скопировано в буфер обмена!
Baidu
123K

ERNIE-4.5-VL-424B-A47B — это мультимодальная модель типа Mixture-of-Experts (MoE) из серии ERNIE 4.5 от Baidu, имеющая 424 миллиарда общих параметров с 47 миллиардами активных на каждый токен. Она обучена совместно на текстовых и изображенческих данных с использованием гетерогенной архитектуры MoE и маршрутизации, изолированной по модальностям, что позволяет осуществлять высокоточное кросс-модальное рассуждение, понимание изображений и генерацию длинных контекстов (до 131 тысячи токенов). Модель дообучена с использованием таких техник, как SFT, DPO, UPO и RLVR, и поддерживает как режимы вывода с “мышлением”, так и без него. Разработанная для задач, связанных с взаимодействием зрения и языка на английском и китайском языках, она оптимизирована для эффективного масштабирования и может работать при квантовании в 4 бита/8 бит.

Входные данные:
40 ₽ / 1M
Изображения
Текст
Исходящие данные:
121 ₽ / 1M
Текст
Контекст:
123K
Входящие токены за 1M:
40 ₽
Исходящие токены за 1M:
121 ₽
Скопировано в буфер обмена!
Baidu
123K

ERNIE-4.5-300B-A47B — это языковая модель с параметрами 300B типа Mixture-of-Experts (MoE), разработанная компанией Baidu в рамках серии ERNIE 4.5. Она активирует 47B параметров на каждый токен и поддерживает генерацию текста как на английском, так и на китайском языках. Оптимизированная для высокопроизводительного вывода и эффективного масштабирования, она использует гетерогенную структуру MoE с передовыми стратегиями маршрутизации и квантизации, включая форматы FP8 и 2-бит. Эта версия специально настроена для задач, связанных исключительно с языком, и поддерживает рассуждения, параметры инструментов и увеличенные длины контекста до 131k токенов. Подходит для универсальных приложений LLM с высокими требованиями к рассуждению и пропускной способности.

Входные данные:
27 ₽ / 1M
Текст
Исходящие данные:
106 ₽ / 1M
Текст
Контекст:
123K
Входящие токены за 1M:
27 ₽
Исходящие токены за 1M:
106 ₽
Скопировано в буфер обмена!
Mistral AI
128K

Mistral-Small-3.2-24B-Instruct-2506 — это обновленная модель с 24 миллиардами параметров от Mistral, оптимизированная для выполнения инструкций, уменьшения повторений и улучшенного вызова функций. По сравнению с версией 3.1, версия 3.2 значительно улучшает точность на WildBench и Arena Hard, сокращает бесконечные генерации и обеспечивает улучшения в использовании инструментов и задачах с структурированным выводом.

Она поддерживает ввод изображений и текста с структурированным выводом, вызов функций/инструментов и демонстрирует высокую производительность в кодировании (HumanEval+, MBPP), STEM (MMLU, MATH, GPQA) и визуальных тестах (ChartQA, DocVQA).

Входные данные:
7 ₽ / 1M
Изображения
Текст
Исходящие данные:
19 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
7 ₽
Исходящие токены за 1M:
19 ₽
Скопировано в буфер обмена!
Minimax
1M

MiniMax-M1 — это крупномасштабная модель рассуждений с открытым весом, разработанная для расширенного контекста и высокоэффективного вывода. Она использует гибридную архитектуру Mixture-of-Experts (MoE) в сочетании с пользовательским механизмом “молниеносного внимания”, что позволяет обрабатывать длинные последовательности — до 1 миллиона токенов — при сохранении конкурентоспособной эффективности FLOP. С общим количеством параметров 456 миллиардов и 45,9 миллиарда активных на токен, этот вариант оптимизирован для сложных, многошаговых задач рассуждения.

Обученная с помощью пользовательского конвейера обучения с подкреплением (CISPO), M1 превосходит в понимании длинного контекста, программной инженерии, использовании агентных инструментов и математическом рассуждении. Тесты показывают высокие результаты на FullStackBench, SWE-bench, MATH, GPQA и TAU-Bench, часто превосходя другие открытые модели, такие как DeepSeek R1 и Qwen3-235B.

Входные данные:
42 ₽ / 1M
Текст
Исходящие данные:
171 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
42 ₽
Исходящие токены за 1M:
171 ₽
Скопировано в буфер обмена!
Google
1M

Gemini 2.5 Flash — это передовая рабочая модель от Google, специально разработанная для выполнения сложных задач в области рассуждений, программирования, математики и науки. Она включает встроенные возможности “мышления”, что позволяет ей давать ответы с большей точностью и учитывать нюансы контекста.

Входные данные:
29 ₽ / 1M
Файл
Изображения
Текст
Аудио
Видео
Исходящие данные:
243 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
29 ₽
Исходящие токены за 1M:
243 ₽
Скопировано в буфер обмена!
Google
1M

Gemini 2.5 Pro — это передовая модель ИИ от Google, разработанная для выполнения сложных задач в области рассуждений, программирования, математики и науки. Она использует возможности «мышления», что позволяет ей рассуждать при формировании ответов с повышенной точностью и тонким учетом контекста. Gemini 2.5 Pro демонстрирует высочайшую производительность по нескольким критериям, включая первое место в рейтинге LMArena, что отражает превосходное соответствие предпочтениям человека и способности решать сложные задачи.

Входные данные:
121 ₽ / 1M
Текст
Изображения
Файл
Аудио
Видео
Исходящие данные:
972 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
121 ₽
Исходящие токены за 1M:
972 ₽
Скопировано в буфер обмена!
xAI
131K

Легковесная модель, которая обдумывает перед тем, как ответить. Быстрая, умная и отлично подходит для задач, основанных на логике, которые не требуют глубоких знаний в конкретной области. Доступны необработанные следы мышления.

Входные данные:
58 ₽ / 1M
Текст
Исходящие данные:
388 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
58 ₽
Исходящие токены за 1M:
388 ₽
Скопировано в буфер обмена!
xAI
131K

Grok 3 — это последняя модель от xAI. Это их флагманская модель, которая превосходно справляется с корпоративными задачами, такими как извлечение данных, программирование и суммирование текста. Обладает глубокими знаниями в области финансов, здравоохранения, права и науки.

Входные данные:
486 ₽ / 1M
Текст
Исходящие данные:
2431 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
486 ₽
Исходящие токены за 1M:
2431 ₽
Скопировано в буфер обмена!
Google
1M

Gemini 2.5 Pro — это передовая модель искусственного интеллекта от Google, разработанная для выполнения сложных задач в области рассуждений, программирования, математики и науки. Она использует возможности «мышления», что позволяет ей рассуждать над ответами с повышенной точностью и учитывать нюансы контекста. Gemini 2.5 Pro демонстрирует высочайшую производительность на различных тестах, включая первое место в рейтинге LMArena, что отражает превосходное соответствие предпочтениям человека и способности решать сложные проблемы.

Входные данные:
121 ₽ / 1M
Файл
Изображения
Текст
Аудио
Исходящие данные:
972 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
121 ₽
Исходящие токены за 1M:
972 ₽
Скопировано в буфер обмена!
DeepSeek
164K

Обновление от 28 мая для оригинального DeepSeek R1 Производительность на уровне OpenAI o1, но с открытым исходным кодом и полностью открытыми токенами рассуждений. Размер модели составляет 671 миллиард параметров, из которых 37 миллиардов активны в процессе вывода.

Полностью открытая модель с открытым исходным кодом.

Входные данные:
48 ₽ / 1M
Текст
Исходящие данные:
209 ₽ / 1M
Текст
Контекст:
164K
Входящие токены за 1M:
48 ₽
Исходящие токены за 1M:
209 ₽
Скопировано в буфер обмена!
Anthropic
200K

Claude Opus 4 оценивается как лучшая в мире модель для кодирования на момент выпуска, обеспечивая стабильную производительность на сложных, длительных задачах и рабочих процессах агентов. Она устанавливает новые стандарты в области программной инженерии, достигая ведущих результатов на SWE-bench (72.5%) и Terminal-bench (43.2%). Opus 4 поддерживает расширенные агентные рабочие процессы, обрабатывая тысячи шагов задач непрерывно в течение нескольких часов без ухудшения производительности.

Входные данные:
1458 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
7293 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
1458 ₽
Исходящие токены за 1M:
7293 ₽
Скопировано в буфер обмена!
Anthropic
1M

Claude Sonnet 4 значительно улучшает возможности своего предшественника, Sonnet 3.7, превосходя его как в задачах кодирования, так и в задачах рассуждения с улучшенной точностью и управляемостью. Достигнув передовых результатов на SWE-bench (72,7%), Sonnet 4 сочетает в себе возможности и вычислительную эффективность, что делает его подходящим для широкого спектра приложений — от рутинных задач кодирования до сложных проектов разработки программного обеспечения. Ключевые улучшения включают улучшенную автономную навигацию по кодовой базе, снижение уровня ошибок в агентно-управляемых рабочих процессах и повышенную надежность в следовании сложным инструкциям. Sonnet 4 оптимизирован для практического повседневного использования, предоставляя расширенные возможности рассуждения при сохранении эффективности и отзывчивости в различных внутренних и внешних сценариях.

Входные данные:
291 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
1458 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
291 ₽
Исходящие токены за 1M:
1458 ₽