Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (72)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Google
33K

Gemma 3n E4B-it оптимизирован для эффективного выполнения на мобильных и малоресурсных устройствах, таких как телефоны, ноутбуки и планшеты. Он поддерживает мультимодальные вводы — включая текст, визуальные данные и аудио — что позволяет выполнять разнообразные задачи, такие как генерация текста, распознавание речи, перевод и анализ изображений. Используя инновации, такие как кэширование Per-Layer Embedding (PLE) и архитектура MatFormer, Gemma 3n динамически управляет использованием памяти и вычислительной нагрузкой, выборочно активируя параметры модели, что значительно снижает требования к ресурсам во время выполнения.

Эта модель поддерживает широкий языковой диапазон (обучена на более чем 140 языках) и имеет гибкое контекстное окно на 32K токенов. Gemma 3n может выборочно загружать параметры, оптимизируя память и вычислительную эффективность в зависимости от задачи или возможностей устройства, что делает её подходящей для приложений, ориентированных на конфиденциальность, с возможностью работы в оффлайн-режиме и решений AI на устройстве. Подробнее в блоге

Входные данные:
5 ₽ / 1M
Текст
Исходящие данные:
11 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
5 ₽
Исходящие токены за 1M:
11 ₽
Скопировано в буфер обмена!
Mistral AI
131K

Mistral Medium 3 — это высокопроизводительная языковая модель корпоративного уровня, разработанная для предоставления передовых возможностей при значительно сниженной операционной стоимости. Она сочетает передовые возможности в области рассуждений и мультимодальной производительности с 8-кратным снижением затрат по сравнению с традиционными крупными моделями, что делает её подходящей для масштабируемого развертывания в профессиональных и промышленных сценариях использования.

Модель превосходно работает в таких областях, как программирование, STEM-рассуждения и адаптация для предприятий. Она поддерживает гибридные, локальные и в-VPC развертывания и оптимизирована для интеграции в пользовательские рабочие процессы. Mistral Medium 3 предлагает конкурентоспособную точность по сравнению с более крупными моделями, такими как Claude Sonnet 3.5/3.7, Llama 4 Maverick и Command R+, при этом сохраняя широкую совместимость с облачными средами.

Входные данные:
38 ₽ / 1M
Текст
Изображения
Исходящие данные:
194 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
38 ₽
Исходящие токены за 1M:
194 ₽
Скопировано в буфер обмена!
Google
1M

Gemini 2.5 Pro — это передовая модель искусственного интеллекта от Google, разработанная для выполнения сложных задач в области рассуждений, программирования, математики и науки. Она использует возможности «мышления», что позволяет ей рассуждать при формировании ответов с повышенной точностью и тонким учетом контекста. Gemini 2.5 Pro демонстрирует высочайшую производительность на множестве тестов, включая первое место в рейтинге LMArena, что отражает превосходное соответствие предпочтениям человека и способности решать сложные задачи.

Входные данные:
121 ₽ / 1M
Текст
Изображения
Файл
Аудио
Видео
Исходящие данные:
972 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
121 ₽
Исходящие токены за 1M:
972 ₽
Скопировано в буфер обмена!
Arcee AI
131K

Spotlight — это модель обработки изображений и текста с 7 миллиардами параметров, созданная на основе Qwen 2.5‑VL и доработанная Arcee AI для задач точного связывания изображений и текста. Она предлагает контекстное окно на 32 000 токенов, что позволяет вести богатые мультимодальные беседы, объединяющие длинные документы с одним или несколькими изображениями. Обучение было сосредоточено на быстром выводе на потребительских GPU при сохранении высокой точности в задачах создания подписей, визуального ответа на вопросы и анализа диаграмм. В результате Spotlight легко интегрируется в рабочие процессы агентов, где необходимо быстро интерпретировать скриншоты, диаграммы или макеты пользовательского интерфейса. Ранние тесты показывают, что она сопоставима или превосходит более крупные VLM, такие как LLaVA‑1.6 13 B, в популярных тестах на визуальные вопросы и POPE.

Входные данные:
17 ₽ / 1M
Изображения
Текст
Исходящие данные:
17 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
17 ₽
Исходящие токены за 1M:
17 ₽
Скопировано в буфер обмена!
Arcee AI
131K

Maestro Reasoning — это флагманская модель анализа компании Arcee: производная версия Qwen 2.5‑32 B с 32 миллиардами параметров, настроенная с использованием DPO и обучением с подкреплением на основе цепочки рассуждений для пошаговой логики. По сравнению с предыдущей версией на 7 миллиардов параметров, производственная версия на 32 миллиарда увеличивает контекстное окно до 128 тысяч токенов и удваивает процент прохождения тестов на MATH и GSM‑8K, а также повышает точность завершения кода. Ее стиль инструкций поощряет структурированные следы “мысль → ответ”, которые могут быть разобраны или скрыты в зависимости от предпочтений пользователя. Эта прозрачность хорошо сочетается с отраслями, ориентированными на аудит, такими как финансы или здравоохранение, где важно видеть путь рассуждений. В Arcee Conductor Maestro автоматически выбирается для сложных запросов с множеством ограничений, которые не могут обработать меньшие языковые модели.

Входные данные:
87 ₽ / 1M
Текст
Исходящие данные:
320 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
87 ₽
Исходящие токены за 1M:
320 ₽
Скопировано в буфер обмена!
Arcee AI
131K

Virtuoso‑Large — это универсальная LLM высшего уровня от Arcee с 72 миллиардами параметров, настроенная для решения задач междисциплинарного рассуждения, креативного письма и корпоративного QA. В отличие от многих аналогов с 70 миллиардами параметров, она сохраняет контекст в 128 тысяч, унаследованный от Qwen 2.5, что позволяет ей полностью обрабатывать книги, кодовые базы или финансовые отчеты. Обучение сочетает дистилляцию DeepSeek R1, многократную эпоху контролируемой тонкой настройки и заключительный этап согласования DPO/RLHF, обеспечивая высокую производительность на тестах BIG‑Bench‑Hard, GSM‑8K и Needle‑In‑Haystack для длинного контекста. Компании используют Virtuoso‑Large как “резервный” мозг в конвейерах Conductor, когда другие SLM показывают низкую уверенность. Несмотря на свои размеры, агрессивные оптимизации KV‑кэша удерживают задержку первого токена в пределах нескольких секунд на узлах 8× H100, что делает её мощным инструментом для производственного использования.

Входные данные:
72 ₽ / 1M
Текст
Исходящие данные:
116 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
72 ₽
Исходящие токены за 1M:
116 ₽
Скопировано в буфер обмена!
Arcee AI
33K

Coder‑Large — это модель с 32 миллиардами параметров, являющаяся потомком Qwen 2.5‑Instruct, которая была дополнительно обучена на лицензированных данных из GitHub, CodeSearchNet и синтетических корпусов исправления ошибок. Она поддерживает контекстное окно размером 32 тысячи, что позволяет выполнять рефакторинг нескольких файлов или долгий обзор изменений за один вызов, и понимает более 30 языков программирования, уделяя особое внимание TypeScript, Go и Terraform. Внутренние тесты показывают прирост на 5–8 баллов по сравнению с CodeLlama‑34 B‑Python на HumanEval и конкурентоспособные результаты в исправлении ошибок благодаря этапу усиления, который вознаграждает компилируемый вывод. Модель по умолчанию генерирует структурированные объяснения вместе с блоками кода, что делает её подходящей как для образовательных инструментов, так и для сценариев использования в качестве помощника в производстве. С точки зрения стоимости, Together AI предлагает её значительно дешевле, чем проприетарные аналоги, что позволяет командам масштабировать интерактивное кодирование без чрезмерных затрат.

Входные данные:
48 ₽ / 1M
Текст
Исходящие данные:
77 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
48 ₽
Исходящие токены за 1M:
77 ₽
Скопировано в буфер обмена!
Meta Llama
164K

Llama Guard 4 — это многомодальная предварительно обученная модель, основанная на Llama 4 Scout, доработанная для классификации безопасности контента. Подобно предыдущим версиям, она может использоваться для классификации контента как во входных данных LLM (классификация запросов), так и в ответах LLM (классификация ответов). Она функционирует как LLM, генерируя текст на выходе, который указывает, является ли данный запрос или ответ безопасным или небезопасным, и если небезопасным, то также перечисляет категории контента, которые были нарушены.

Llama Guard 4 была настроена для защиты от стандартизированной таксономии угроз MLCommons и разработана для поддержки многомодальных возможностей Llama 4. В частности, она объединяет функции предыдущих моделей Llama Guard, обеспечивая модерацию контента для английского и нескольких поддерживаемых языков, а также улучшенные возможности обработки смешанных текстово-изображенческих запросов, включая несколько изображений. Кроме того, Llama Guard 4 интегрирована в Llama Moderations API, расширяя надежную классификацию безопасности на текст и изображения.

Входные данные:
17 ₽ / 1M
Изображения
Текст
Исходящие данные:
17 ₽ / 1M
Текст
Контекст:
164K
Входящие токены за 1M:
17 ₽
Исходящие токены за 1M:
17 ₽
Скопировано в буфер обмена!
Qwen
41K

Qwen3, последнее поколение в серии крупных языковых моделей Qwen, включает как плотные, так и архитектуры с набором экспертов (MoE), чтобы преуспевать в рассуждениях, многоязыковой поддержке и выполнении сложных задач агентами. Его уникальная способность беспрепятственно переключаться между режимом мышления для сложных рассуждений и режимом без мышления для эффективного диалога обеспечивает универсальную и высококачественную производительность.

Значительно превосходя предыдущие модели, такие как QwQ и Qwen2.5, Qwen3 демонстрирует превосходные способности в математике, программировании, здравом смысле, творческом письме и интерактивном диалоге. Вариант Qwen3-30B-A3B включает 30,5 миллиарда параметров (3,3 миллиарда активированных), 48 слоев, 128 экспертов (8 активируются на задачу) и поддерживает до 131 тысячи токенов в контексте с YaRN, устанавливая новый стандарт среди моделей с открытым исходным кодом.

Входные данные:
7 ₽ / 1M
Текст
Исходящие данные:
27 ₽ / 1M
Текст
Контекст:
41K
Входящие токены за 1M:
7 ₽
Исходящие токены за 1M:
27 ₽
Скопировано в буфер обмена!
Qwen
41K

Qwen3-8B — это плотная причинно-следственная языковая модель с 8,2 миллиардами параметров из серии Qwen3, разработанная как для задач, требующих интенсивного рассуждения, так и для эффективного диалога. Она поддерживает плавное переключение между режимом “мышления” для математики, программирования и логического вывода и режимом “немышления” для общего общения. Модель тонко настроена для следования инструкциям, интеграции агентов, творческого письма и многоязычного использования на более чем 100 языках и диалектах. Она изначально поддерживает контекстное окно в 32K токенов и может расширяться до 131K токенов с помощью масштабирования YaRN.

Входные данные:
4 ₽ / 1M
Текст
Исходящие данные:
38 ₽ / 1M
Текст
Контекст:
41K
Входящие токены за 1M:
4 ₽
Исходящие токены за 1M:
38 ₽
Скопировано в буфер обмена!
Qwen
41K

Qwen3-14B — это плотная причинно-следственная языковая модель с 14,8 миллиардами параметров из серии Qwen3, разработанная для сложных рассуждений и эффективного диалога. Она поддерживает бесшовное переключение между режимом “мышления” для задач, таких как математика, программирование и логический вывод, и режимом “немышления” для общих разговоров. Модель точно настроена для выполнения инструкций, использования инструментов агента, творческого письма и многоязычных задач на более чем 100 языках и диалектах. Она изначально обрабатывает контексты из 32 тысяч токенов и может расширяться до 131 тысячи токенов с использованием масштабирования на основе YaRN.

Входные данные:
5 ₽ / 1M
Текст
Исходящие данные:
23 ₽ / 1M
Текст
Контекст:
41K
Входящие токены за 1M:
5 ₽
Исходящие токены за 1M:
23 ₽
Скопировано в буфер обмена!
Qwen
41K

Qwen3-32B — это плотная причинно-следственная языковая модель с 32,8 миллиардами параметров из серии Qwen3, оптимизированная как для сложных рассуждений, так и для эффективного диалога. Она поддерживает бесшовное переключение между режимом “мышления” для задач, таких как математика, программирование и логическое умозаключение, и режимом “немышления” для более быстрого, универсального общения. Модель демонстрирует высокую производительность в следовании инструкциям, использовании инструментов агента, творческом письме и многоязычных задачах на более чем 100 языках и диалектах. Она изначально обрабатывает контексты с 32 тысячами токенов и может расширяться до 131 тысячи токенов с использованием масштабирования на основе YaRN.

Входные данные:
7 ₽ / 1M
Текст
Исходящие данные:
23 ₽ / 1M
Текст
Контекст:
41K
Входящие токены за 1M:
7 ₽
Исходящие токены за 1M:
23 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen3-235B-A22B — это модель с 235 миллиардами параметров типа mixture-of-experts (MoE), разработанная Qwen, активирующая 22 миллиарда параметров за один проход. Она поддерживает плавное переключение между режимом “мышления” для сложных задач, связанных с рассуждениями, математикой и кодом, и режимом “немышления” для общей эффективности в разговоре. Модель демонстрирует сильные способности к рассуждению, поддержку более 100 языков и диалектов, продвинутое следование инструкциям и возможности вызова инструментов агента. Она изначально обрабатывает контекстное окно в 32 тысячи токенов и расширяется до 131 тысячи токенов с использованием масштабирования на основе YaRN.

Входные данные:
44 ₽ / 1M
Текст
Исходящие данные:
176 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
44 ₽
Исходящие токены за 1M:
176 ₽
Скопировано в буфер обмена!
OpenAI
200K

OpenAI o4-mini-high — это та же модель, что и o4-mini, но с параметром reasoning_effort, установленным на высокий уровень.

OpenAI o4-mini — это компактная модель рассуждений в серии o, оптимизированная для быстрой и экономичной работы, сохраняя при этом сильные мультимодальные и агентные возможности. Она поддерживает использование инструментов и демонстрирует конкурентоспособные результаты в рассуждениях и кодировании по таким тестам, как AIME (99,5% с использованием Python) и SWE-bench, превосходя своего предшественника o3-mini и даже приближаясь к o3 в некоторых областях.

Несмотря на меньший размер, o4-mini демонстрирует высокую точность в задачах STEM, визуальном решении проблем (например, MathVista, MMMU) и редактировании кода. Она особенно подходит для сценариев с высокой пропускной способностью, где критичны задержка или стоимость. Благодаря своей эффективной архитектуре и усовершенствованному обучению с подкреплением, o4-mini может связывать инструменты, генерировать структурированные выходные данные и решать многошаговые задачи с минимальной задержкой — часто менее чем за минуту.

Входные данные:
106 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
427 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
106 ₽
Исходящие токены за 1M:
427 ₽
Скопировано в буфер обмена!
OpenAI
200K

o3 — это всесторонняя и мощная модель в различных областях. Она устанавливает новый стандарт для задач по математике, науке, программированию и визуальному мышлению. Также она превосходно справляется с техническим письмом и следованием инструкциям. Используйте её для решения многоступенчатых задач, которые требуют анализа текста, кода и изображений.

Входные данные:
194 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
777 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
194 ₽
Исходящие токены за 1M:
777 ₽