Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (72)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
OpenAI
200K

OpenAI o4-mini — это компактная модель рассуждений в серии o, оптимизированная для быстрого и экономичного выполнения задач, при этом обладающая сильными мультимодальными и агентными возможностями. Она поддерживает использование инструментов и демонстрирует конкурентоспособные результаты в рассуждениях и программировании по таким тестам, как AIME (99,5% с использованием Python) и SWE-bench, превосходя своего предшественника o3-mini и даже приближаясь к o3 в некоторых областях.

Несмотря на меньший размер, o4-mini демонстрирует высокую точность в задачах STEM, визуальном решении проблем (например, MathVista, MMMU) и редактировании кода. Она особенно хорошо подходит для сценариев с высокой пропускной способностью, где критичны задержка или стоимость. Благодаря своей эффективной архитектуре и усовершенствованному обучению с подкреплением, o4-mini может связывать инструменты, генерировать структурированные выходные данные и решать многошаговые задачи с минимальной задержкой — часто менее чем за минуту.

Входные данные:
106 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
427 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
106 ₽
Исходящие токены за 1M:
427 ₽
Скопировано в буфер обмена!
OpenAI
1M

GPT-4.1 — это флагманская большая языковая модель, оптимизированная для выполнения сложных инструкций, реальной разработки программного обеспечения и рассуждений в длинном контексте. Она поддерживает контекстное окно на 1 миллион токенов и превосходит GPT-4o и GPT-4.5 в кодировании (54,6% SWE-bench Verified), соблюдении инструкций (87,4% IFEval) и мультимодальных тестах на понимание. Модель настроена для точных различий в коде, надежности агентов и высокой полноты в контексте больших документов, что делает её идеальной для агентов, инструментов IDE и извлечения знаний в корпоративной среде.

Входные данные:
194 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
777 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
194 ₽
Исходящие токены за 1M:
777 ₽
Скопировано в буфер обмена!
OpenAI
1M

GPT-4.1 Mini — это модель среднего размера, обеспечивающая производительность, сопоставимую с GPT-4o, при существенно меньшей задержке и стоимости. Она сохраняет контекстное окно в 1 миллион токенов и набирает 45,1% в сложных инструкционных оценках, 35,8% в MultiChallenge и 84,1% в IFEval. Mini также демонстрирует сильные способности в программировании (например, 31,6% в полиглотном дифференциальном тесте Aider) и понимании визуальной информации, что делает её подходящей для интерактивных приложений с жесткими ограничениями по производительности.

Входные данные:
38 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
155 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
38 ₽
Исходящие токены за 1M:
155 ₽
Скопировано в буфер обмена!
OpenAI
1M

Для задач, требующих низкой задержки, GPT-4.1 nano является самой быстрой и дешевой моделью в серии GPT-4.1. Она обеспечивает исключительную производительность при небольшом размере с контекстным окном в 1 миллион токенов и набирает 80,1% на MMLU, 50,3% на GPQA и 9,8% на Aider polyglot coding – даже выше, чем GPT-4o mini. Это идеальный выбор для таких задач, как классификация или автозавершение.

Входные данные:
9 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
38 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
38 ₽
Скопировано в буфер обмена!
AlfredPros
4K

Модель Code LLaMA - Instruct с 7 миллиардами параметров, дообученная для генерации смарт-контрактов на Solidity с использованием 4-битной донастройки QLoRA, предоставляемой библиотекой PEFT.

Входные данные:
77 ₽ / 1M
Текст
Исходящие данные:
116 ₽ / 1M
Текст
Контекст:
4K
Входящие токены за 1M:
77 ₽
Исходящие токены за 1M:
116 ₽
Скопировано в буфер обмена!
xAI
131K

Grok 3 Mini — это легковесная, уменьшенная модель мышления. В отличие от традиционных моделей, которые генерируют ответы мгновенно, Grok 3 Mini обдумывает перед тем, как ответить. Она идеально подходит для задач, требующих значительных рассуждений, но не требующих обширных знаний в конкретной области, и отлично проявляет себя в математических и количественных случаях использования, таких как решение сложных головоломок или математических задач.

Доступны прозрачные следы “мышления”. По умолчанию установлено низкое рассуждение, можно повысить, установив reasoning: { effort: "high" }.

Примечание: для этой модели существуют две конечные точки xAI. По умолчанию при использовании этой модели мы всегда направляем вас на базовую конечную точку. Если вы хотите использовать быструю конечную точку, вы можете добавить provider: { sort: throughput}, чтобы сортировать по пропускной способности.

Входные данные:
58 ₽ / 1M
Текст
Исходящие данные:
388 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
58 ₽
Исходящие токены за 1M:
388 ₽
Скопировано в буфер обмена!
xAI
131K

Grok 3 — это последняя модель от xAI. Это их флагманская модель, которая превосходно подходит для корпоративных задач, таких как извлечение данных, кодирование и суммирование текста. Обладает глубокими знаниями в областях финансов, здравоохранения, права и науки.

Превосходно справляется со структурированными задачами и тестами, такими как GPQA, LCB и MMLU-Pro, где она превосходит Grok 3 Mini даже при высоких требованиях к мышлению.

Примечание: Для этой модели существуют две конечные точки xAI. По умолчанию при использовании этой модели вас всегда направят на базовую конечную точку. Если вы хотите использовать быструю конечную точку, вы можете добавить provider: { sort: throughput}, чтобы сортировать по пропускной способности.

Входные данные:
486 ₽ / 1M
Текст
Исходящие данные:
2431 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
486 ₽
Исходящие токены за 1M:
2431 ₽
Скопировано в буфер обмена!
Meta Llama
1M

Llama 4 Maverick 17B Instruct (128E) — это высокоемкая мультимодальная языковая модель от Meta, построенная на архитектуре mixture-of-experts (MoE) с 128 экспертами и 17 миллиардами активных параметров на один проход (всего 400 миллиардов). Она поддерживает многоязычный текстовый и визуальный ввод, а также выдает многоязычный текст и код на 12 поддерживаемых языках. Оптимизированная для задач, связанных с визуально-языковым взаимодействием, Maverick настроена для поведения, подобного ассистенту, рассуждений на основе изображений и общего мультимодального взаимодействия.

Maverick обладает ранним объединением для естественной мультимодальности и контекстным окном на 1 миллион токенов. Она была обучена на тщательно отобранной смеси публичных, лицензированных и данных платформы Meta, охватывающей около 22 триллионов токенов, с отсечкой знаний в августе 2024 года. Выпущенная 5 апреля 2025 года под лицензией Llama 4 Community License, Maverick подходит для исследований и коммерческих приложений, требующих продвинутого мультимодального понимания и высокой производительности модели.

Входные данные:
14 ₽ / 1M
Текст
Изображения
Исходящие данные:
58 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
14 ₽
Исходящие токены за 1M:
58 ₽
Скопировано в буфер обмена!
Meta Llama
328K

Llama 4 Scout 17B Instruct (16E) — это языковая модель с архитектурой mixture-of-experts (MoE), разработанная Meta, которая активирует 17 миллиардов параметров из общего числа 109 миллиардов. Она поддерживает нативный мультимодальный ввод (текст и изображение) и мультиязычный вывод (текст и код) на 12 поддерживаемых языках. Разработанная для взаимодействия в стиле ассистента и визуального рассуждения, Scout использует 16 экспертов на каждый прямой проход и обладает длиной контекста в 10 миллионов токенов, с обучающим корпусом примерно в 40 триллионов токенов.

Созданная для высокой эффективности и локального или коммерческого развертывания, Llama 4 Scout включает раннее слияние для бесшовной интеграции модальностей. Она настроена для использования в многоязычных чатах, создании подписей и задачах понимания изображений. Выпущенная под лицензией Llama 4 Community License, она была обучена на данных до августа 2024 года и публично запущена 5 апреля 2025 года.

Входные данные:
7 ₽ / 1M
Текст
Изображения
Исходящие данные:
29 ₽ / 1M
Текст
Контекст:
328K
Входящие токены за 1M:
7 ₽
Исходящие токены за 1M:
29 ₽
Скопировано в буфер обмена!
DeepSeek
164K

DeepSeek V3, модель с 685 миллиардами параметров и смесью экспертов, является последней итерацией флагманской семейства чат-моделей от команды DeepSeek.

Она является преемником модели DeepSeek V3 и демонстрирует отличные результаты в выполнении различных задач.

Входные данные:
19 ₽ / 1M
Текст
Исходящие данные:
74 ₽ / 1M
Текст
Контекст:
164K
Входящие токены за 1M:
19 ₽
Исходящие токены за 1M:
74 ₽
Скопировано в буфер обмена!
OpenAI
200K

Модели серии o1 обучены с использованием обучения с подкреплением, чтобы обдумывать свои ответы и выполнять сложные рассуждения. Модель o1-pro использует больше вычислительных ресурсов, чтобы думать интенсивнее и предоставлять стабильно лучшие ответы.

Входные данные:
14586 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
58345 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
14586 ₽
Исходящие токены за 1M:
58345 ₽
Скопировано в буфер обмена!
Mistral AI
128K

Mistral Small 3.1 24B Instruct — это обновленный вариант Mistral Small 3 (2501), содержащий 24 миллиарда параметров с продвинутыми мультимодальными возможностями. Он обеспечивает передовые результаты в задачах текстового рассуждения и анализа изображений, включая программирование, математическое рассуждение и поддержку множества языков. Оснащенный обширным контекстным окном на 128 тысяч токенов и оптимизированный для эффективного локального вывода, он поддерживает такие сценарии использования, как разговорные агенты, вызов функций, понимание длинных документов и развертывания с учетом конфиденциальности. Обновленная версия — Mistral Small 3.2.

Входные данные:
34 ₽ / 1M
Текст
Изображения
Исходящие данные:
54 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
34 ₽
Исходящие токены за 1M:
54 ₽
Скопировано в буфер обмена!
Google
131K

Gemma 3 вводит мультимодальность, поддерживая ввод в формате “визуальный контент - текст” и текстовые выводы. Она обрабатывает контекстные окна до 128 тысяч токенов, понимает более 140 языков и предлагает улучшенные возможности в области математики, рассуждений и общения, включая структурированные выводы и вызов функций.

Входные данные:
3 ₽ / 1M
Текст
Изображения
Исходящие данные:
7 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
3 ₽
Исходящие токены за 1M:
7 ₽
Скопировано в буфер обмена!
Google
131K

Gemma 3 вводит мультимодальность, поддерживая ввод в формате “зрение-язык” и текстовые выводы. Она обрабатывает контекстные окна до 128 тысяч токенов, понимает более 140 языков и предлагает улучшенные возможности в области математики, рассуждений и общения, включая структурированные выводы и вызов функций. Gemma 3 12B является второй по величине в семействе моделей Gemma 3 после Gemma 3 27B.

Входные данные:
3 ₽ / 1M
Текст
Изображения
Исходящие данные:
12 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
3 ₽
Исходящие токены за 1M:
12 ₽
Скопировано в буфер обмена!
Cohere
256K

Command A — это модель с открытыми весами, имеющая 111 миллиардов параметров и контекстное окно размером 256 тысяч, ориентированная на обеспечение высокой производительности в агентских, многоязычных и кодировочных сценариях использования. По сравнению с другими ведущими проприетарными и моделями с открытыми весами, Command A обеспечивает максимальную производительность при минимальных затратах на оборудование, превосходя в бизнес-критических агентских и многоязычных задачах.

Входные данные:
243 ₽ / 1M
Текст
Исходящие данные:
972 ₽ / 1M
Текст
Контекст:
256K
Входящие токены за 1M:
243 ₽
Исходящие токены за 1M:
972 ₽