Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (66)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Yandex
33K

Alice AI LLM имеет архитектуру Mixture of Experts и обучена с подкреплением (Reinforcement Learning) с многокомпонентными наградами. Модель использует для ответа не все параметры, а только самые релевантные — как будто привлекая эксперта для решения каждой конкретной задачи.

Входные данные:
675 ₽ / 1M
Текст
Исходящие данные:
2693 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
675 ₽
Исходящие токены за 1M:
2693 ₽
Скопировано в буфер обмена!
Minimax
197K

MiniMax-M2 — это компактная, высокоэффективная большая языковая модель, оптимизированная для сквозного кодирования и агентных рабочих процессов. С 10 миллиардами активированных параметров (всего 230 миллиардов) она обеспечивает почти передовой уровень интеллекта в области общего рассуждения, использования инструментов и выполнения многошаговых задач, сохраняя при этом низкую задержку и эффективность развертывания.

Модель превосходно справляется с генерацией кода, редактированием нескольких файлов, циклами компиляции-запуска-исправления и тестово-валидированным ремонтом, демонстрируя высокие результаты на SWE-Bench Verified, Multi-SWE-Bench и Terminal-Bench. Она также показывает конкурентоспособность в агентных оценках, таких как BrowseComp и GAIA, эффективно справляясь с долгосрочным планированием, извлечением и восстановлением после ошибок выполнения.

По данным Artificial Analysis, MiniMax-M2 занимает одно из ведущих мест среди открытых моделей для комплексного интеллекта, охватывающего математику, науку и следование инструкциям. Ее небольшой активированный след позволяет обеспечить быструю инференцию, высокую конкурентоспособность и улучшенную экономику единицы, что делает ее подходящей для крупных агентов, помощников разработчиков и приложений, ориентированных на рассуждения, требующих отзывчивости и экономической эффективности.

Чтобы избежать ухудшения производительности этой модели, MiniMax настоятельно рекомендует сохранять рассуждения между ходами.

Входные данные:
25 ₽ / 1M
Текст
Исходящие данные:
100 ₽ / 1M
Текст
Контекст:
197K
Входящие токены за 1M:
25 ₽
Исходящие токены за 1M:
100 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen3-VL-32B-Instruct — это крупномасштабная мультимодальная модель для работы с визуальной и текстовой информацией, разработанная для высокоточной интерпретации и анализа текста, изображений и видео. С 32 миллиардами параметров она сочетает глубокое визуальное восприятие с продвинутым пониманием текста, что позволяет выполнять детализированное пространственное рассуждение, анализ документов и сцен, а также понимание видео на длинных временных интервалах. Обладает надежным OCR на 32 языках и улучшенной мультимодальной интеграцией благодаря архитектурам Interleaved-MRoPE и DeepStack. Оптимизированная для агентного взаимодействия и использования визуальных инструментов, Qwen3-VL-32B обеспечивает передовую производительность для сложных мультимодальных задач в реальном мире.

Входные данные:
10 ₽ / 1M
Текст
Изображения
Исходящие данные:
41 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
10 ₽
Исходящие токены за 1M:
41 ₽
Скопировано в буфер обмена!
Liquid
33K

Модель создана через интерфейс inbox.

Входные данные:
1 ₽ / 1M
Текст
Исходящие данные:
2 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
1 ₽
Исходящие токены за 1M:
2 ₽
Скопировано в буфер обмена!
Liquid
33K

LFM2 — это новое поколение гибридных моделей, разработанных компанией Liquid AI, специально предназначенных для периферийного ИИ и развертывания на устройствах. Оно устанавливает новый стандарт в отношении качества, скорости и эффективности использования памяти.

Входные данные:
1 ₽ / 1M
Текст
Исходящие данные:
2 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
1 ₽
Исходящие токены за 1M:
2 ₽
Скопировано в буфер обмена!
Ibm-granite
131K

Granite-4.0-H-Micro — это параметр 3B из семейства моделей Granite 4. Эти модели являются последними в серии моделей, выпущенных IBM. Они настроены для вызова инструментов в длинном контексте.

Входные данные:
1 ₽ / 1M
Текст
Исходящие данные:
11 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
1 ₽
Исходящие токены за 1M:
11 ₽
Скопировано в буфер обмена!
OpenAI
400K

GPT-5 Image Mini сочетает в себе продвинутые языковые возможности, основанные на GPT-5 Mini, с GPT Image 1 Mini для эффективной генерации изображений. Эта изначально мультимодальная модель обладает превосходным следованием инструкциям, рендерингом текста и детальным редактированием изображений с уменьшенной задержкой и стоимостью. Она превосходно справляется с созданием высококачественных визуальных материалов, сохраняя при этом сильное понимание текста, что делает её идеальной для приложений, требующих как эффективной генерации изображений, так и обработки текста в больших масштабах.

Входные данные:
252 ₽ / 1M
Файл
Изображения
Текст
Исходящие данные:
201 ₽ / 1M
Изображения
Текст
Контекст:
400K
Входящие токены за 1M:
252 ₽
Исходящие токены за 1M:
201 ₽
Скопировано в буфер обмена!
Anthropic
200K

Claude Haiku 4.5 — это самая быстрая и эффективная модель от Anthropic, обеспечивающая почти передовой уровень интеллекта за небольшую часть стоимости и задержки по сравнению с более крупными моделями Claude. Сопоставимая с производительностью Claude Sonnet 4 в задачах рассуждения, программирования и использования компьютера, Haiku 4.5 предоставляет возможности передового уровня для приложений в реальном времени и с высоким объемом данных.

Она вводит расширенное мышление в линейку Haiku, позволяя контролировать глубину рассуждений, выводить обобщенные или чередующиеся мысли и использовать рабочие процессы с поддержкой инструментов, включая полную поддержку программирования, bash, веб-поиска и инструментов для работы с компьютером. Набирая более 73% на SWE-bench Verified, Haiku 4.5 входит в число лучших моделей для программирования в мире, при этом сохраняя исключительную отзывчивость для суб-агентов, параллельного выполнения и масштабируемого развертывания.

Входные данные:
100 ₽ / 1M
Изображения
Текст
Исходящие данные:
504 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
100 ₽
Исходящие токены за 1M:
504 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen3-VL-8B-Thinking — это оптимизированный для рассуждений вариант мультимодальной модели Qwen3-VL-8B, разработанный для продвинутого визуального и текстового анализа в сложных сценах, документах и временных последовательностях. Он интегрирует улучшенное мультимодальное выравнивание и обработку длинного контекста (встроенные 256K, расширяемые до 1M токенов) для задач, таких как научный визуальный анализ, причинно-следственные выводы и математические рассуждения по изображениям или видео.

По сравнению с версией Instruct, версия Thinking вводит более глубокое слияние визуального и языкового аспектов и продуманные пути рассуждений, которые улучшают производительность в задачах с длинными логическими цепочками, решении задач STEM и многократном понимании видео. Она достигает более сильной временной привязки с помощью Interleaved-MRoPE и встраиваний с учетом временных меток, при этом поддерживая надежное OCR, многоязычное понимание и генерацию текста на уровне крупных текстовых LLM.

Входные данные:
11 ₽ / 1M
Изображения
Текст
Исходящие данные:
137 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
11 ₽
Исходящие токены за 1M:
137 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen3-VL-8B-Instruct — это мультимодальная модель из серии Qwen3-VL, созданная для высокоточного понимания и рассуждений по тексту, изображениям и видео. Она обладает улучшенной мультимодальной фьюзией с использованием Interleaved-MRoPE для временного рассуждения на длинных отрезках, DeepStack для точного выравнивания визуального и текстового контента, а также выравнивания текста и временных меток для точной локализации событий.

Модель поддерживает контекстное окно на 256 тысяч токенов, которое можно расширить до 1 миллиона токенов, и обрабатывает как статические, так и динамические медиа-входы для задач, таких как парсинг документов, визуальные вопросы и ответы, пространственное рассуждение и управление графическим интерфейсом. Она достигает уровня понимания текста, сопоставимого с ведущими LLM, расширяя охват OCR до 32 языков и повышая устойчивость в различных визуальных условиях.

Входные данные:
11 ₽ / 1M
Изображения
Текст
Исходящие данные:
45 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
11 ₽
Исходящие токены за 1M:
45 ₽
Скопировано в буфер обмена!
OpenAI
400K

Image сочетает в себе самую передовую языковую модель OpenAI с передовыми возможностями генерации изображений. Она предлагает значительные улучшения в области рассуждений, качества кода и пользовательского опыта, при этом включая превосходное следование инструкциям, рендеринг текста и детальное редактирование изображений, характерные для GPT Image 1.

Входные данные:
1008 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
1008 ₽ / 1M
Изображения
Текст
Контекст:
400K
Входящие токены за 1M:
1008 ₽
Исходящие токены за 1M:
1008 ₽
Скопировано в буфер обмена!
OpenAI
200K

o3-deep-research — это продвинутая модель OpenAI для глубоких исследований, разработанная для решения сложных многоэтапных исследовательских задач.

Примечание: Эта модель всегда использует инструмент ‘web_search’, что добавляет дополнительные затраты.

Входные данные:
1008 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
4035 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
1008 ₽
Исходящие токены за 1M:
4035 ₽
Скопировано в буфер обмена!
OpenAI
200K

o4-mini-deep-research — это более быстрый и доступный модель для глубоких исследований от OpenAI, идеально подходящая для решения сложных, многоэтапных исследовательских задач.

Примечание: Эта модель всегда использует инструмент ‘web_search’, что добавляет дополнительные расходы.

Входные данные:
201 ₽ / 1M
Файл
Изображения
Текст
Исходящие данные:
807 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
201 ₽
Исходящие токены за 1M:
807 ₽
Скопировано в буфер обмена!
NVIDIA
131K

Llama-3.3-Nemotron-Super-49B-v1.5 — это модель с 49 миллиардами параметров, ориентированная на английский язык, предназначенная для рассуждений и общения, созданная на основе Meta’s Llama-3.3-70B-Instruct с контекстом в 128K. Она дополнительно обучена для агентных рабочих процессов (RAG, вызов инструментов) через SFT в областях математики, программирования, науки и многократного общения, с последующими несколькими этапами RL; Оптимизация предпочтений с учетом вознаграждения (RPO) для согласования, RL с проверяемыми вознаграждениями (RLVR) для пошагового рассуждения и итеративное DPO для уточнения поведения при использовании инструментов. Поиск нейронной архитектуры, основанный на дистилляции («Puzzle»), заменяет некоторые блоки внимания и изменяет ширину FFN, чтобы уменьшить объем памяти и повысить производительность, что позволяет использовать модель на одном GPU (H100/H200), сохраняя качество следования инструкциям и CoT.

Во внутренних оценках (NeMo-Skills, до 16 запусков, temp = 0.6, top_p = 0.95) модель демонстрирует сильные результаты в рассуждениях и программировании, например, MATH500 pass@1 = 97.4, AIME-2024 = 87.5, AIME-2025 = 82.71, GPQA = 71.97, LiveCodeBench (24.10–25.02) = 73.58 и MMLU-Pro (CoT) = 79.53. Модель ориентирована на практическую эффективность вывода (высокое количество токенов в секунду, уменьшенное использование VRAM) с поддержкой Transformers/vLLM и явными режимами «включения/выключения рассуждений» (по умолчанию сначала чат, рекомендуется жадный режим при отключении). Подходит для создания агентов, ассистентов и систем извлечения с длинным контекстом, где важны сбалансированная точность и стоимость, а также надежное использование инструментов.

Входные данные:
10 ₽ / 1M
Текст
Исходящие данные:
40 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
10 ₽
Исходящие токены за 1M:
40 ₽
Скопировано в буфер обмена!
Baidu
131K

ERNIE-4.5-21B-A3B-Thinking — это обновленная облегченная модель MoE от Baidu, усовершенствованная для повышения глубины и качества рассуждений, обеспечивая высочайшую производительность в логических головоломках, математике, науке, программировании, генерации текста и академических тестах экспертного уровня.

Входные данные:
7 ₽ / 1M
Текст
Исходящие данные:
28 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
7 ₽
Исходящие токены за 1M:
28 ₽