Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (66)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Qwen
41K

Qwen3, последнее поколение в серии крупных языковых моделей Qwen, включает как плотные, так и архитектуры с набором экспертов (MoE), чтобы преуспевать в рассуждениях, многоязыковой поддержке и выполнении сложных задач агентами. Его уникальная способность беспрепятственно переключаться между режимом мышления для сложных рассуждений и режимом без мышления для эффективного диалога обеспечивает универсальную и высококачественную производительность.

Значительно превосходя предыдущие модели, такие как QwQ и Qwen2.5, Qwen3 демонстрирует превосходные способности в математике, программировании, здравом смысле, творческом письме и интерактивном диалоге. Вариант Qwen3-30B-A3B включает 30,5 миллиарда параметров (3,3 миллиарда активированных), 48 слоев, 128 экспертов (8 активируются на задачу) и поддерживает до 131 тысячи токенов в контексте с YaRN, устанавливая новый стандарт среди моделей с открытым исходным кодом.

Входные данные:
8 ₽ / 1M
Текст
Исходящие данные:
28 ₽ / 1M
Текст
Контекст:
41K
Входящие токены за 1M:
8 ₽
Исходящие токены за 1M:
28 ₽
Скопировано в буфер обмена!
Qwen
41K

Qwen3-8B — это плотная причинно-следственная языковая модель с 8,2 миллиардами параметров из серии Qwen3, разработанная как для задач, требующих интенсивного рассуждения, так и для эффективного диалога. Она поддерживает плавное переключение между режимом “мышления” для математики, программирования и логического вывода и режимом “немышления” для общего общения. Модель тонко настроена для следования инструкциям, интеграции агентов, творческого письма и многоязычного использования на более чем 100 языках и диалектах. Она изначально поддерживает контекстное окно в 32K токенов и может расширяться до 131K токенов с помощью масштабирования YaRN.

Входные данные:
5 ₽ / 1M
Текст
Исходящие данные:
40 ₽ / 1M
Текст
Контекст:
41K
Входящие токены за 1M:
5 ₽
Исходящие токены за 1M:
40 ₽
Скопировано в буфер обмена!
Qwen
41K

Qwen3-14B — это плотная причинно-следственная языковая модель с 14,8 миллиардами параметров из серии Qwen3, разработанная для сложных рассуждений и эффективного диалога. Она поддерживает бесшовное переключение между режимом “мышления” для задач, таких как математика, программирование и логический вывод, и режимом “немышления” для общих разговоров. Модель точно настроена для выполнения инструкций, использования инструментов агента, творческого письма и многоязычных задач на более чем 100 языках и диалектах. Она изначально обрабатывает контексты из 32 тысяч токенов и может расширяться до 131 тысячи токенов с использованием масштабирования на основе YaRN.

Входные данные:
6 ₽ / 1M
Текст
Исходящие данные:
24 ₽ / 1M
Текст
Контекст:
41K
Входящие токены за 1M:
6 ₽
Исходящие токены за 1M:
24 ₽
Скопировано в буфер обмена!
Qwen
41K

Qwen3-32B — это плотная причинно-следственная языковая модель с 32,8 миллиардами параметров из серии Qwen3, оптимизированная как для сложных рассуждений, так и для эффективного диалога. Она поддерживает бесшовное переключение между режимом “мышления” для задач, таких как математика, программирование и логическое умозаключение, и режимом “немышления” для более быстрого, универсального общения. Модель демонстрирует высокую производительность в следовании инструкциям, использовании инструментов агента, творческом письме и многоязычных задачах на более чем 100 языках и диалектах. Она изначально обрабатывает контексты с 32 тысячами токенов и может расширяться до 131 тысячи токенов с использованием масштабирования на основе YaRN.

Входные данные:
8 ₽ / 1M
Текст
Исходящие данные:
24 ₽ / 1M
Текст
Контекст:
41K
Входящие токены за 1M:
8 ₽
Исходящие токены за 1M:
24 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen3-235B-A22B — это модель с 235 миллиардами параметров типа mixture-of-experts (MoE), разработанная Qwen, активирующая 22 миллиарда параметров за один проход. Она поддерживает плавное переключение между режимом “мышления” для сложных задач, связанных с рассуждениями, математикой и кодом, и режимом “немышления” для общей эффективности в разговоре. Модель демонстрирует сильные способности к рассуждению, поддержку более 100 языков и диалектов, продвинутое следование инструкциям и возможности вызова инструментов агента. Она изначально обрабатывает контекстное окно в 32 тысячи токенов и расширяется до 131 тысячи токенов с использованием масштабирования на основе YaRN.

Входные данные:
45 ₽ / 1M
Текст
Исходящие данные:
183 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
45 ₽
Исходящие токены за 1M:
183 ₽
Скопировано в буфер обмена!
OpenAI
200K

OpenAI o4-mini-high — это та же модель, что и o4-mini, но с параметром reasoning_effort, установленным на высокий уровень.

OpenAI o4-mini — это компактная модель рассуждений в серии o, оптимизированная для быстрой и экономичной работы, сохраняя при этом сильные мультимодальные и агентные возможности. Она поддерживает использование инструментов и демонстрирует конкурентоспособные результаты в рассуждениях и кодировании по таким тестам, как AIME (99,5% с использованием Python) и SWE-bench, превосходя своего предшественника o3-mini и даже приближаясь к o3 в некоторых областях.

Несмотря на меньший размер, o4-mini демонстрирует высокую точность в задачах STEM, визуальном решении проблем (например, MathVista, MMMU) и редактировании кода. Она особенно подходит для сценариев с высокой пропускной способностью, где критичны задержка или стоимость. Благодаря своей эффективной архитектуре и усовершенствованному обучению с подкреплением, o4-mini может связывать инструменты, генерировать структурированные выходные данные и решать многошаговые задачи с минимальной задержкой — часто менее чем за минуту.

Входные данные:
110 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
443 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
110 ₽
Исходящие токены за 1M:
443 ₽
Скопировано в буфер обмена!
OpenAI
200K

o3 — это всесторонняя и мощная модель в различных областях. Она устанавливает новый стандарт для задач по математике, науке, программированию и визуальному мышлению. Также она превосходно справляется с техническим письмом и следованием инструкциям. Используйте её для решения многоступенчатых задач, которые требуют анализа текста, кода и изображений.

Входные данные:
201 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
807 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
201 ₽
Исходящие токены за 1M:
807 ₽
Скопировано в буфер обмена!
OpenAI
200K

OpenAI o4-mini — это компактная модель рассуждений в серии o, оптимизированная для быстрого и экономичного выполнения задач, при этом обладающая сильными мультимодальными и агентными возможностями. Она поддерживает использование инструментов и демонстрирует конкурентоспособные результаты в рассуждениях и программировании по таким тестам, как AIME (99,5% с использованием Python) и SWE-bench, превосходя своего предшественника o3-mini и даже приближаясь к o3 в некоторых областях.

Несмотря на меньший размер, o4-mini демонстрирует высокую точность в задачах STEM, визуальном решении проблем (например, MathVista, MMMU) и редактировании кода. Она особенно хорошо подходит для сценариев с высокой пропускной способностью, где критичны задержка или стоимость. Благодаря своей эффективной архитектуре и усовершенствованному обучению с подкреплением, o4-mini может связывать инструменты, генерировать структурированные выходные данные и решать многошаговые задачи с минимальной задержкой — часто менее чем за минуту.

Входные данные:
110 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
443 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
110 ₽
Исходящие токены за 1M:
443 ₽
Скопировано в буфер обмена!
Qwen
33K

Qwen2.5-Coder-7B-Instruct — это языковая модель с 7 миллиардами параметров, настроенная для выполнения задач, связанных с кодом, таких как генерация кода, рассуждение и исправление ошибок. Основанная на архитектуре Qwen2.5, она включает улучшения, такие как RoPE, SwiGLU, RMSNorm и внимание GQA с поддержкой до 128 тысяч токенов с использованием экстраполяции на основе YaRN. Модель обучена на большом корпусе исходного кода, синтетических данных и текстово-кодовых связей, обеспечивая надежную производительность в различных языках программирования и агентных рабочих процессах кодирования.

Эта модель является частью семейства Qwen2.5-Coder и предлагает сильную совместимость с инструментами, такими как vLLM, для эффективного развертывания. Выпущена под лицензией Apache 2.0.

Входные данные:
3 ₽ / 1M
Текст
Исходящие данные:
9 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
3 ₽
Исходящие токены за 1M:
9 ₽
Скопировано в буфер обмена!
OpenAI
1M

GPT-4.1 — это флагманская большая языковая модель, оптимизированная для выполнения сложных инструкций, реальной разработки программного обеспечения и рассуждений в длинном контексте. Она поддерживает контекстное окно на 1 миллион токенов и превосходит GPT-4o и GPT-4.5 в кодировании (54,6% SWE-bench Verified), соблюдении инструкций (87,4% IFEval) и мультимодальных тестах на понимание. Модель настроена для точных различий в коде, надежности агентов и высокой полноты в контексте больших документов, что делает её идеальной для агентов, инструментов IDE и извлечения знаний в корпоративной среде.

Входные данные:
201 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
807 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
201 ₽
Исходящие токены за 1M:
807 ₽
Скопировано в буфер обмена!
OpenAI
1M

GPT-4.1 Mini — это модель среднего размера, обеспечивающая производительность, сопоставимую с GPT-4o, при существенно меньшей задержке и стоимости. Она сохраняет контекстное окно в 1 миллион токенов и набирает 45,1% в сложных инструкционных оценках, 35,8% в MultiChallenge и 84,1% в IFEval. Mini также демонстрирует сильные способности в программировании (например, 31,6% в полиглотном дифференциальном тесте Aider) и понимании визуальной информации, что делает её подходящей для интерактивных приложений с жесткими ограничениями по производительности.

Входные данные:
40 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
161 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
40 ₽
Исходящие токены за 1M:
161 ₽
Скопировано в буфер обмена!
OpenAI
1M

Для задач, требующих низкой задержки, GPT-4.1 nano является самой быстрой и дешевой моделью в серии GPT-4.1. Она обеспечивает исключительную производительность при небольшом размере с контекстным окном в 1 миллион токенов и набирает 80,1% на MMLU, 50,3% на GPQA и 9,8% на Aider polyglot coding – даже выше, чем GPT-4o mini. Это идеальный выбор для таких задач, как классификация или автозавершение.

Входные данные:
10 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
40 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
10 ₽
Исходящие токены за 1M:
40 ₽
Скопировано в буфер обмена!
EleutherAI
4K

Llemma 7B — это языковая модель для математики. Она была инициализирована с весами Code Llama 7B и обучена на Proof-Pile-2 для 200 миллиардов токенов. Модели Llemma особенно сильны в пошаговом математическом рассуждении и использовании вычислительных инструментов для математики, таких как Python и формальные доказательные системы.

Входные данные:
80 ₽ / 1M
Текст
Исходящие данные:
121 ₽ / 1M
Текст
Контекст:
4K
Входящие токены за 1M:
80 ₽
Исходящие токены за 1M:
121 ₽
Скопировано в буфер обмена!
AlfredPros
4K

Модель Code LLaMA - Instruct с 7 миллиардами параметров, дообученная для генерации смарт-контрактов на Solidity с использованием 4-битной донастройки QLoRA, предоставляемой библиотекой PEFT.

Входные данные:
80 ₽ / 1M
Текст
Исходящие данные:
121 ₽ / 1M
Текст
Контекст:
4K
Входящие токены за 1M:
80 ₽
Исходящие токены за 1M:
121 ₽
Скопировано в буфер обмена!
xAI
131K

Grok 3 Mini — это легковесная, уменьшенная модель мышления. В отличие от традиционных моделей, которые генерируют ответы мгновенно, Grok 3 Mini обдумывает перед тем, как ответить. Она идеально подходит для задач, требующих значительных рассуждений, но не требующих обширных знаний в конкретной области, и отлично проявляет себя в математических и количественных случаях использования, таких как решение сложных головоломок или математических задач.

Доступны прозрачные следы “мышления”. По умолчанию установлено низкое рассуждение, можно повысить, установив reasoning: { effort: "high" }.

Примечание: для этой модели существуют две конечные точки xAI. По умолчанию при использовании этой модели мы всегда направляем вас на базовую конечную точку. Если вы хотите использовать быструю конечную точку, вы можете добавить provider: { sort: throughput}, чтобы сортировать по пропускной способности.

Входные данные:
60 ₽ / 1M
Текст
Исходящие данные:
403 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
60 ₽
Исходящие токены за 1M:
403 ₽