Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (72)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Ibm-granite
131K

Granite-4.0-H-Micro — это параметр 3B из семейства моделей Granite 4. Эти модели являются последними в серии моделей, выпущенных IBM. Они настроены для вызова инструментов в длинном контексте.

Входные данные:
1 ₽ / 1M
Текст
Исходящие данные:
10 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
1 ₽
Исходящие токены за 1M:
10 ₽
Скопировано в буфер обмена!
OpenAI
400K

GPT-5 Image Mini сочетает в себе продвинутые языковые возможности, основанные на GPT-5 Mini, с GPT Image 1 Mini для эффективной генерации изображений. Эта изначально мультимодальная модель обладает превосходным следованием инструкциям, рендерингом текста и детальным редактированием изображений с уменьшенной задержкой и стоимостью. Она превосходно справляется с созданием высококачественных визуальных материалов, сохраняя при этом сильное понимание текста, что делает её идеальной для приложений, требующих как эффективной генерации изображений, так и обработки текста в больших масштабах.

Входные данные:
243 ₽ / 1M
Файл
Изображения
Текст
Исходящие данные:
194 ₽ / 1M
Изображения
Текст
Контекст:
400K
Входящие токены за 1M:
243 ₽
Исходящие токены за 1M:
194 ₽
Скопировано в буфер обмена!
Anthropic
200K

Claude Haiku 4.5 — это самая быстрая и эффективная модель от Anthropic, обеспечивающая почти передовой уровень интеллекта за небольшую часть стоимости и задержки по сравнению с более крупными моделями Claude. Сопоставимая с производительностью Claude Sonnet 4 в задачах рассуждения, программирования и использования компьютера, Haiku 4.5 предоставляет возможности передового уровня для приложений в реальном времени и с высоким объемом данных.

Она вводит расширенное мышление в линейку Haiku, позволяя контролировать глубину рассуждений, выводить обобщенные или чередующиеся мысли и использовать рабочие процессы с поддержкой инструментов, включая полную поддержку программирования, bash, веб-поиска и инструментов для работы с компьютером. Набирая более 73% на SWE-bench Verified, Haiku 4.5 входит в число лучших моделей для программирования в мире, при этом сохраняя исключительную отзывчивость для суб-агентов, параллельного выполнения и масштабируемого развертывания.

Входные данные:
97 ₽ / 1M
Изображения
Текст
Исходящие данные:
486 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
97 ₽
Исходящие токены за 1M:
486 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen3-VL-8B-Thinking — это оптимизированный для рассуждений вариант мультимодальной модели Qwen3-VL-8B, разработанный для продвинутого визуального и текстового анализа в сложных сценах, документах и временных последовательностях. Он интегрирует улучшенное мультимодальное выравнивание и обработку длинного контекста (встроенные 256K, расширяемые до 1M токенов) для задач, таких как научный визуальный анализ, причинно-следственные выводы и математические рассуждения по изображениям или видео.

По сравнению с версией Instruct, версия Thinking вводит более глубокое слияние визуального и языкового аспектов и продуманные пути рассуждений, которые улучшают производительность в задачах с длинными логическими цепочками, решении задач STEM и многократном понимании видео. Она достигает более сильной временной привязки с помощью Interleaved-MRoPE и встраиваний с учетом временных меток, при этом поддерживая надежное OCR, многоязычное понимание и генерацию текста на уровне крупных текстовых LLM.

Входные данные:
11 ₽ / 1M
Изображения
Текст
Исходящие данные:
132 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
11 ₽
Исходящие токены за 1M:
132 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen3-VL-8B-Instruct — это мультимодальная модель из серии Qwen3-VL, созданная для высокоточного понимания и рассуждений по тексту, изображениям и видео. Она обладает улучшенной мультимодальной фьюзией с использованием Interleaved-MRoPE для временного рассуждения на длинных отрезках, DeepStack для точного выравнивания визуального и текстового контента, а также выравнивания текста и временных меток для точной локализации событий.

Модель поддерживает контекстное окно на 256 тысяч токенов, которое можно расширить до 1 миллиона токенов, и обрабатывает как статические, так и динамические медиа-входы для задач, таких как парсинг документов, визуальные вопросы и ответы, пространственное рассуждение и управление графическим интерфейсом. Она достигает уровня понимания текста, сопоставимого с ведущими LLM, расширяя охват OCR до 32 языков и повышая устойчивость в различных визуальных условиях.

Входные данные:
11 ₽ / 1M
Изображения
Текст
Исходящие данные:
44 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
11 ₽
Исходящие токены за 1M:
44 ₽
Скопировано в буфер обмена!
OpenAI
400K

Image сочетает в себе самую передовую языковую модель OpenAI с передовыми возможностями генерации изображений. Она предлагает значительные улучшения в области рассуждений, качества кода и пользовательского опыта, при этом включая превосходное следование инструкциям, рендеринг текста и детальное редактирование изображений, характерные для GPT Image 1.

Входные данные:
972 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
972 ₽ / 1M
Изображения
Текст
Контекст:
400K
Входящие токены за 1M:
972 ₽
Исходящие токены за 1M:
972 ₽
Скопировано в буфер обмена!
OpenAI
200K

o3-deep-research — это продвинутая модель OpenAI для глубоких исследований, разработанная для решения сложных многоэтапных исследовательских задач.

Примечание: Эта модель всегда использует инструмент ‘web_search’, что добавляет дополнительные затраты.

Входные данные:
972 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
3889 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
972 ₽
Исходящие токены за 1M:
3889 ₽
Скопировано в буфер обмена!
OpenAI
200K

o4-mini-deep-research — это более быстрый и доступный модель для глубоких исследований от OpenAI, идеально подходящая для решения сложных, многоэтапных исследовательских задач.

Примечание: Эта модель всегда использует инструмент ‘web_search’, что добавляет дополнительные расходы.

Входные данные:
194 ₽ / 1M
Файл
Изображения
Текст
Исходящие данные:
777 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
194 ₽
Исходящие токены за 1M:
777 ₽
Скопировано в буфер обмена!
NVIDIA
131K

Llama-3.3-Nemotron-Super-49B-v1.5 — это модель с 49 миллиардами параметров, ориентированная на английский язык, предназначенная для рассуждений и общения, созданная на основе Meta’s Llama-3.3-70B-Instruct с контекстом в 128K. Она дополнительно обучена для агентных рабочих процессов (RAG, вызов инструментов) через SFT в областях математики, программирования, науки и многократного общения, с последующими несколькими этапами RL; Оптимизация предпочтений с учетом вознаграждения (RPO) для согласования, RL с проверяемыми вознаграждениями (RLVR) для пошагового рассуждения и итеративное DPO для уточнения поведения при использовании инструментов. Поиск нейронной архитектуры, основанный на дистилляции («Puzzle»), заменяет некоторые блоки внимания и изменяет ширину FFN, чтобы уменьшить объем памяти и повысить производительность, что позволяет использовать модель на одном GPU (H100/H200), сохраняя качество следования инструкциям и CoT.

Во внутренних оценках (NeMo-Skills, до 16 запусков, temp = 0.6, top_p = 0.95) модель демонстрирует сильные результаты в рассуждениях и программировании, например, MATH500 pass@1 = 97.4, AIME-2024 = 87.5, AIME-2025 = 82.71, GPQA = 71.97, LiveCodeBench (24.10–25.02) = 73.58 и MMLU-Pro (CoT) = 79.53. Модель ориентирована на практическую эффективность вывода (высокое количество токенов в секунду, уменьшенное использование VRAM) с поддержкой Transformers/vLLM и явными режимами «включения/выключения рассуждений» (по умолчанию сначала чат, рекомендуется жадный режим при отключении). Подходит для создания агентов, ассистентов и систем извлечения с длинным контекстом, где важны сбалансированная точность и стоимость, а также надежное использование инструментов.

Входные данные:
9 ₽ / 1M
Текст
Исходящие данные:
38 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
38 ₽
Скопировано в буфер обмена!
Baidu
131K

ERNIE-4.5-21B-A3B-Thinking — это обновленная облегченная модель MoE от Baidu, усовершенствованная для повышения глубины и качества рассуждений, обеспечивая высочайшую производительность в логических головоломках, математике, науке, программировании, генерации текста и академических тестах экспертного уровня.

Входные данные:
6 ₽ / 1M
Текст
Исходящие данные:
27 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
6 ₽
Исходящие токены за 1M:
27 ₽
Скопировано в буфер обмена!
Google
33K

Gemini 2.5 Flash Image, также известный как “Nano Banana”, теперь доступен для общего использования. Это современная модель генерации изображений с контекстуальным пониманием. Она способна на генерацию изображений, редактирование и ведение многоходовых диалогов.

Входные данные:
29 ₽ / 1M
Изображения
Текст
Исходящие данные:
243 ₽ / 1M
Изображения
Текст
Контекст:
33K
Входящие токены за 1M:
29 ₽
Исходящие токены за 1M:
243 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen3-VL-30B-A3B-Thinking — это мультимодальная модель, объединяющая мощную генерацию текста с визуальным пониманием изображений и видео. Ее вариант Thinking улучшает способность к рассуждению в STEM, математике и сложных задачах. Она превосходно воспринимает реальные и синтетические категории, 2D/3D пространственное закрепление и долгосрочное визуальное понимание, достигая конкурентоспособных результатов в мультимодальных тестах. Для агентного использования она справляется с многоизображенческими многоходовыми инструкциями, выравниванием временных шкал видео, автоматизацией GUI и визуальным кодированием от набросков до отлаженного пользовательского интерфейса. Производительность текста соответствует флагманским моделям Qwen3, что делает ее подходящей для документального ИИ, OCR, помощи в пользовательском интерфейсе, пространственных задач и исследований агентов.

Входные данные:
19 ₽ / 1M
Текст
Изображения
Исходящие данные:
97 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
19 ₽
Исходящие токены за 1M:
97 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen3-VL-30B-A3B-Instruct — это мультимодальная модель, объединяющая мощную генерацию текста с визуальным пониманием изображений и видео. Вариант Instruct оптимизирован для выполнения инструкций в общих мультимодальных задачах. Она превосходно справляется с восприятием реальных и синтетических категорий, 2D/3D пространственным обоснованием и длительным визуальным пониманием, достигая конкурентоспособных результатов в мультимодальных тестах. Для агентного использования она обрабатывает инструкции с несколькими изображениями и многократными обращениями, выравнивание временной шкалы видео, автоматизацию графического интерфейса и визуальное кодирование от эскизов до отлаженного пользовательского интерфейса. Производительность текста соответствует флагманским моделям Qwen3, что делает её подходящей для ИИ документов, OCR, помощи в пользовательском интерфейсе, пространственных задач и исследований агентов.

Входные данные:
12 ₽ / 1M
Текст
Изображения
Исходящие данные:
50 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
12 ₽
Исходящие токены за 1M:
50 ₽
Скопировано в буфер обмена!
OpenAI
400K

GPT-5 Pro — это самая продвинутая модель OpenAI, предлагающая значительные улучшения в области рассуждений, качества кода и пользовательского опыта. Она оптимизирована для сложных задач, требующих пошагового рассуждения, следования инструкциям и точности в критически важных случаях использования. Модель поддерживает функции маршрутизации во время тестирования и продвинутое понимание подсказок, включая намерения, заданные пользователем, такие как “подумай над этим тщательно”. Улучшения включают снижение количества галлюцинаций, лести и лучшую производительность в задачах программирования, письма и связанных со здоровьем.

Входные данные:
1458 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
11669 ₽ / 1M
Текст
Контекст:
400K
Входящие токены за 1M:
1458 ₽
Исходящие токены за 1M:
11669 ₽
Скопировано в буфер обмена!
Z AI
205K

По сравнению с GLM-4.5, это поколение вносит несколько ключевых улучшений:

Увеличенное окно контекста: Окно контекста расширено с 128K до 200K токенов, что позволяет модели справляться с более сложными агентными задачами.
Улучшенная производительность в кодировании: Модель достигает более высоких результатов в тестах на код и демонстрирует лучшую производительность в реальных приложениях, таких как Claude Code, Cline, Roo Code и Kilo Code, включая улучшения в создании визуально отточенных фронт-энд страниц.
Продвинутое рассуждение: GLM-4.6 показывает явное улучшение в производительности рассуждений и поддерживает использование инструментов во время вывода, что приводит к более сильным общим возможностям.
Более способные агенты: GLM-4.6 демонстрирует более высокую производительность в использовании инструментов и поисковых агентов, и более эффективно интегрируется в агентные фреймворки.
Усовершенствованное написание: Лучше соответствует человеческим предпочтениям в стиле и читаемости, и действует более естественно в сценариях ролевых игр.

Входные данные:
41 ₽ / 1M
Текст
Исходящие данные:
169 ₽ / 1M
Текст
Контекст:
205K
Входящие токены за 1M:
41 ₽
Исходящие токены за 1M:
169 ₽