Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (66)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Yandex
33K

Обновлённая YandexGPT 5.1 Pro — лучшая модель Яндекса для обработки текстов. На потоке, в котором сочетаются вопросы пользователей и сложные задачи, востребованные в бизнес-сфере, она превосходит предыдущую модель и достигает уровня GPT-4.1 компании OpenAI. Также YandexGPT 5.1 Pro эффективнее работает с системным промтом и почти вдвое реже прошлой версии даёт выдуманные ответы.

Входные данные:
534 ₽ / 1M
Текст
Исходящие данные:
534 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
534 ₽
Исходящие токены за 1M:
534 ₽
Скопировано в буфер обмена!
xAI
256K

Grok Code Fast 1 — это быстрый и экономичный модель рассуждений, которая превосходно справляется с агентским кодированием. Благодаря видимым следам рассуждений в ответе, разработчики могут направлять Grok Code для создания высококачественных рабочих процессов.

Входные данные:
20 ₽ / 1M
Текст
Исходящие данные:
151 ₽ / 1M
Текст
Контекст:
256K
Входящие токены за 1M:
20 ₽
Исходящие токены за 1M:
151 ₽
Скопировано в буфер обмена!
Nous Research
131K

Hermes 4 70B — это гибридная модель рассуждений от Nous Research, основанная на Meta-Llama-3.1-70B. Она вводит тот же гибридный режим, что и более крупный выпуск 405B, позволяя модели либо отвечать напрямую, либо генерировать явные следы рассуждений ... перед ответом. Пользователи могут управлять поведением рассуждений с помощью булевой переменной reasoning enabled.

Этот вариант 70B обучен на расширенном корпусе пост-тренировочных данных (~60 миллиардов токенов), с акцентом на проверенные данные рассуждений, что приводит к улучшениям в математике, программировании, STEM, логике и структурированных выходах, сохраняя при этом общую производительность ассистента. Он поддерживает режим JSON, соблюдение схем, вызов функций и использование инструментов, и разработан для большей управляемости с уменьшением количества отказов.

Входные данные:
13 ₽ / 1M
Текст
Исходящие данные:
40 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
13 ₽
Исходящие токены за 1M:
40 ₽
Скопировано в буфер обмена!
Nous Research
131K

Hermes 4 — это крупномасштабная модель рассуждений, построенная на базе Meta-Llama-3.1-405B и выпущенная Nous Research. Она вводит гибридный режим рассуждений, где модель может выбирать между внутренним обдумыванием с использованием следов ... или прямым ответом, предлагая гибкость между скоростью и глубиной. Пользователи могут управлять поведением рассуждений с помощью булевой переменной reasoning enabled.

Модель настроена на выполнение инструкций с расширенным корпусом пост-тренировочных данных (~60 миллиардов токенов), акцентируя внимание на следах рассуждений, что улучшает производительность в математике, программировании, STEM и логических рассуждениях, сохраняя при этом широкую полезность в качестве ассистента. Она также поддерживает структурированные выводы, включая режим JSON, соблюдение схем, вызов функций и использование инструментов. Hermes 4 обучена для управляемости, снижения частоты отказов и выравнивания в сторону нейтрального, ориентированного на пользователя поведения.

Входные данные:
100 ₽ / 1M
Текст
Исходящие данные:
302 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
100 ₽
Исходящие токены за 1M:
302 ₽
Скопировано в буфер обмена!
DeepSeek
33K

DeepSeek-V3.1 — это крупная гибридная модель рассуждений (671 миллиард параметров, 37 миллиардов активных), поддерживающая как режимы мышления, так и немышления с помощью шаблонов подсказок. Она расширяет базу DeepSeek-V3 с помощью двухфазного процесса обучения на длинных контекстах, достигая до 128 тысяч токенов, и использует микромасштабирование FP8 для эффективного вывода. Пользователи могут управлять поведением рассуждений с помощью булевой переменной reasoning enabled.

Модель улучшает использование инструментов, генерацию кода и эффективность рассуждений, достигая производительности, сопоставимой с DeepSeek-R1 на сложных тестах, при этом реагируя быстрее. Она поддерживает структурированные вызовы инструментов, кодовые агенты и поисковые агенты, что делает её подходящей для исследований, программирования и агентных рабочих процессов.

Она является преемником модели DeepSeek V3-0324 и хорошо справляется с разнообразными задачами.

Входные данные:
15 ₽ / 1M
Текст
Исходящие данные:
75 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
15 ₽
Исходящие токены за 1M:
75 ₽
Скопировано в буфер обмена!
OpenAI
128K

Модель gpt-4o-audio-preview добавляет поддержку аудиовходов в качестве подсказок. Это улучшение позволяет модели обнаруживать нюансы в аудиозаписях и добавлять глубину в создаваемые пользовательские впечатления. Аудиовыходы в настоящее время не поддерживаются.

Входные данные:
252 ₽ / 1M
Аудио
Текст
Исходящие данные:
1008 ₽ / 1M
Текст
Аудио
Контекст:
128K
Входящие токены за 1M:
252 ₽
Исходящие токены за 1M:
1008 ₽
Скопировано в буфер обмена!
Mistral AI
131K

Mistral Medium 3.1 — это обновленная версия Mistral Medium 3, высокопроизводительной языковой модели корпоративного уровня, разработанной для предоставления передовых возможностей при значительно сниженных операционных затратах. Она сочетает в себе передовые возможности логического мышления и мультимодальной производительности с в 8 раз меньшими затратами по сравнению с традиционными крупными моделями, что делает ее подходящей для масштабируемых развертываний в профессиональных и промышленных сценариях использования.

Модель превосходно работает в таких областях, как программирование, логическое мышление в STEM и адаптация для предприятий. Она поддерживает гибридные, локальные и в-VPC развертывания и оптимизирована для интеграции в пользовательские рабочие процессы. Mistral Medium 3.1 предлагает конкурентоспособную точность по сравнению с более крупными моделями, такими как Claude Sonnet 3.5/3.7, Llama 4 Maverick и Command R+, при этом сохраняя широкую совместимость в облачных средах.

Входные данные:
40 ₽ / 1M
Текст
Изображения
Исходящие данные:
201 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
40 ₽
Исходящие токены за 1M:
201 ₽
Скопировано в буфер обмена!
Baidu
120K

Современная текстовая модель Mixture-of-Experts (MoE) с 21 миллиардом параметров, из которых 3 миллиарда активируются на каждый токен, обеспечивает исключительное мультимодальное понимание и генерацию благодаря гетерогенным структурам MoE и маршрутизации, изолированной по модальностям. Поддерживая обширную длину контекста в 131 тысячу токенов, модель достигает эффективного вывода через параллельное сотрудничество множества экспертов и квантизацию, в то время как передовые методы пост-тренировки, включая SFT, DPO и UPO, обеспечивают оптимизированную производительность в различных приложениях с использованием специализированной маршрутизации и балансировки потерь для превосходной обработки задач.

Входные данные:
7 ₽ / 1M
Текст
Исходящие данные:
28 ₽ / 1M
Текст
Контекст:
120K
Входящие токены за 1M:
7 ₽
Исходящие токены за 1M:
28 ₽
Скопировано в буфер обмена!
Baidu
30K

Мощная мультимодальная модель Mixture-of-Experts с 28 миллиардами параметров, из которых 3 миллиарда активируются на каждый токен, обеспечивает исключительное понимание текста и изображений благодаря своей инновационной гетерогенной структуре MoE с маршрутизацией, изолированной по модальностям. Построенная на масштабируемой инфраструктуре для высокопроизводительного обучения и вывода, модель использует передовые методы пост-тренировки, включая SFT, DPO и UPO для оптимизированной производительности, поддерживая впечатляющую длину контекста в 131 тысячу и выравнивание RLVR для превосходных возможностей кросс-модального рассуждения и генерации.

Входные данные:
14 ₽ / 1M
Текст
Изображения
Исходящие данные:
56 ₽ / 1M
Текст
Контекст:
30K
Входящие токены за 1M:
14 ₽
Исходящие токены за 1M:
56 ₽
Скопировано в буфер обмена!
Z AI
66K

GLM-4.5V — это базовая модель для работы с визуально-языковыми данными в приложениях мультимодальных агентов. Построенная на архитектуре Mixture-of-Experts (MoE) с 106 миллиардами параметров и 12 миллиардами активированных параметров, она достигает передовых результатов в понимании видео, вопросах и ответах по изображениям, OCR и разборе документов, а также демонстрирует значительные улучшения в веб-кодировании интерфейсов, привязке и пространственном мышлении. Она предлагает гибридный режим вывода: “режим размышления” для глубокого анализа и “режим без размышлений” для быстрых ответов. Поведение в плане рассуждений можно переключать с помощью логического параметра reasoning enabled.

Входные данные:
60 ₽ / 1M
Текст
Изображения
Исходящие данные:
181 ₽ / 1M
Текст
Контекст:
66K
Входящие токены за 1M:
60 ₽
Исходящие токены за 1M:
181 ₽
Скопировано в буфер обмена!
AI21
256K

Jamba Large 1.7 — это последняя модель в семействе Jamba open, предлагающая улучшения в области обоснованности, следования инструкциям и общей эффективности. Построенная на гибридной архитектуре SSM-Transformer с контекстным окном 256K, она обеспечивает более точные, контекстуально обоснованные ответы и лучшую управляемость по сравнению с предыдущими версиями.

Входные данные:
201 ₽ / 1M
Текст
Исходящие данные:
807 ₽ / 1M
Текст
Контекст:
256K
Входящие токены за 1M:
201 ₽
Исходящие токены за 1M:
807 ₽
Скопировано в буфер обмена!
OpenAI
128K

GPT-5 Chat предназначен для ведения продвинутых, естественных, мультимодальных и учитывающих контекст бесед в корпоративных приложениях.

Входные данные:
126 ₽ / 1M
Файл
Изображения
Текст
Исходящие данные:
1008 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
126 ₽
Исходящие токены за 1M:
1008 ₽
Скопировано в буфер обмена!
OpenAI
400K

GPT-5 — это самая продвинутая модель OpenAI, предлагающая значительные улучшения в области рассуждений, качества кода и пользовательского опыта. Она оптимизирована для сложных задач, требующих пошагового рассуждения, следования инструкциям и точности в критически важных случаях использования. Модель поддерживает функции маршрутизации во время тестирования и продвинутое понимание подсказок, включая намерения, заданные пользователем, такие как “подумай об этом тщательно”. Улучшения включают снижение галлюцинаций, лести и лучшую производительность в задачах программирования, написания и связанных со здоровьем.

Входные данные:
126 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
1008 ₽ / 1M
Текст
Контекст:
400K
Входящие токены за 1M:
126 ₽
Исходящие токены за 1M:
1008 ₽
Скопировано в буфер обмена!
OpenAI
400K

GPT-5 Mini — это компактная версия GPT-5, разработанная для выполнения менее сложных задач, связанных с рассуждениями. Она обеспечивает те же преимущества в следовании инструкциям и настройке безопасности, что и GPT-5, но с уменьшенной задержкой и стоимостью. GPT-5 Mini является преемником модели o4-mini от OpenAI.

Входные данные:
25 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
201 ₽ / 1M
Текст
Контекст:
400K
Входящие токены за 1M:
25 ₽
Исходящие токены за 1M:
201 ₽
Скопировано в буфер обмена!
OpenAI
400K

GPT-5-Nano — это самая маленькая и быстрая версия в системе GPT-5, оптимизированная для инструментов разработчиков, быстрых взаимодействий и сред с ультранизкой задержкой. Хотя её глубина рассуждений ограничена по сравнению с более крупными аналогами, она сохраняет ключевые функции следования инструкциям и безопасности. Это преемник GPT-4.1-nano и предлагает облегчённый вариант для чувствительных к затратам или реального времени приложений.

Входные данные:
5 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
40 ₽ / 1M
Текст
Контекст:
400K
Входящие токены за 1M:
5 ₽
Исходящие токены за 1M:
40 ₽