Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (66)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
xAI
131K

Легковесная модель, которая обдумывает перед тем, как ответить. Быстрая, умная и отлично подходит для задач, основанных на логике, которые не требуют глубоких знаний в конкретной области. Доступны необработанные следы мышления.

Входные данные:
60 ₽ / 1M
Текст
Исходящие данные:
403 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
60 ₽
Исходящие токены за 1M:
403 ₽
Скопировано в буфер обмена!
xAI
131K

Grok 3 — это последняя модель от xAI. Это их флагманская модель, которая превосходно справляется с корпоративными задачами, такими как извлечение данных, программирование и суммирование текста. Обладает глубокими знаниями в области финансов, здравоохранения, права и науки.

Входные данные:
504 ₽ / 1M
Текст
Исходящие данные:
2522 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
504 ₽
Исходящие токены за 1M:
2522 ₽
Скопировано в буфер обмена!
Google
1M

Gemini 2.5 Pro — это передовая модель искусственного интеллекта от Google, разработанная для выполнения сложных задач в области рассуждений, программирования, математики и науки. Она использует возможности «мышления», что позволяет ей рассуждать над ответами с повышенной точностью и учитывать нюансы контекста. Gemini 2.5 Pro демонстрирует высочайшую производительность на различных тестах, включая первое место в рейтинге LMArena, что отражает превосходное соответствие предпочтениям человека и способности решать сложные проблемы.

Входные данные:
126 ₽ / 1M
Файл
Изображения
Текст
Аудио
Исходящие данные:
1008 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
126 ₽
Исходящие токены за 1M:
1008 ₽
Скопировано в буфер обмена!
DeepSeek
164K

Обновление от 28 мая для оригинального DeepSeek R1 Производительность на уровне OpenAI o1, но с открытым исходным кодом и полностью открытыми токенами рассуждений. Размер модели составляет 671 миллиард параметров, из которых 37 миллиардов активны в процессе вывода.

Полностью открытая модель с открытым исходным кодом.

Входные данные:
45 ₽ / 1M
Текст
Исходящие данные:
216 ₽ / 1M
Текст
Контекст:
164K
Входящие токены за 1M:
45 ₽
Исходящие токены за 1M:
216 ₽
Скопировано в буфер обмена!
Anthropic
200K

Claude Opus 4 оценивается как лучшая в мире модель для кодирования на момент выпуска, обеспечивая стабильную производительность на сложных, длительных задачах и рабочих процессах агентов. Она устанавливает новые стандарты в области программной инженерии, достигая ведущих результатов на SWE-bench (72.5%) и Terminal-bench (43.2%). Opus 4 поддерживает расширенные агентные рабочие процессы, обрабатывая тысячи шагов задач непрерывно в течение нескольких часов без ухудшения производительности.

Входные данные:
1513 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
7566 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
1513 ₽
Исходящие токены за 1M:
7566 ₽
Скопировано в буфер обмена!
Anthropic
1M

Claude Sonnet 4 значительно улучшает возможности своего предшественника, Sonnet 3.7, превосходя его как в задачах кодирования, так и в задачах рассуждения с улучшенной точностью и управляемостью. Достигнув передовых результатов на SWE-bench (72,7%), Sonnet 4 сочетает в себе возможности и вычислительную эффективность, что делает его подходящим для широкого спектра приложений — от рутинных задач кодирования до сложных проектов разработки программного обеспечения. Ключевые улучшения включают улучшенную автономную навигацию по кодовой базе, снижение уровня ошибок в агентно-управляемых рабочих процессах и повышенную надежность в следовании сложным инструкциям. Sonnet 4 оптимизирован для практического повседневного использования, предоставляя расширенные возможности рассуждения при сохранении эффективности и отзывчивости в различных внутренних и внешних сценариях.

Входные данные:
302 ₽ / 1M
Изображения
Текст
Файл
Исходящие данные:
1513 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
302 ₽
Исходящие токены за 1M:
1513 ₽
Скопировано в буфер обмена!
Google
33K

Gemma 3n E4B-it оптимизирован для эффективного выполнения на мобильных и малоресурсных устройствах, таких как телефоны, ноутбуки и планшеты. Он поддерживает мультимодальные вводы — включая текст, визуальные данные и аудио — что позволяет выполнять разнообразные задачи, такие как генерация текста, распознавание речи, перевод и анализ изображений. Используя инновации, такие как кэширование Per-Layer Embedding (PLE) и архитектура MatFormer, Gemma 3n динамически управляет использованием памяти и вычислительной нагрузкой, выборочно активируя параметры модели, что значительно снижает требования к ресурсам во время выполнения.

Эта модель поддерживает широкий языковой диапазон (обучена на более чем 140 языках) и имеет гибкое контекстное окно на 32K токенов. Gemma 3n может выборочно загружать параметры, оптимизируя память и вычислительную эффективность в зависимости от задачи или возможностей устройства, что делает её подходящей для приложений, ориентированных на конфиденциальность, с возможностью работы в оффлайн-режиме и решений AI на устройстве. Подробнее в блоге

Входные данные:
2 ₽ / 1M
Текст
Исходящие данные:
4 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
2 ₽
Исходящие токены за 1M:
4 ₽
Скопировано в буфер обмена!
Mistral AI
131K

Mistral Medium 3 — это высокопроизводительная языковая модель корпоративного уровня, разработанная для предоставления передовых возможностей при значительно сниженной операционной стоимости. Она сочетает передовые возможности в области рассуждений и мультимодальной производительности с 8-кратным снижением затрат по сравнению с традиционными крупными моделями, что делает её подходящей для масштабируемого развертывания в профессиональных и промышленных сценариях использования.

Модель превосходно работает в таких областях, как программирование, STEM-рассуждения и адаптация для предприятий. Она поддерживает гибридные, локальные и в-VPC развертывания и оптимизирована для интеграции в пользовательские рабочие процессы. Mistral Medium 3 предлагает конкурентоспособную точность по сравнению с более крупными моделями, такими как Claude Sonnet 3.5/3.7, Llama 4 Maverick и Command R+, при этом сохраняя широкую совместимость с облачными средами.

Входные данные:
40 ₽ / 1M
Текст
Изображения
Исходящие данные:
201 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
40 ₽
Исходящие токены за 1M:
201 ₽
Скопировано в буфер обмена!
Google
1M

Gemini 2.5 Pro — это передовая модель искусственного интеллекта от Google, разработанная для выполнения сложных задач в области рассуждений, программирования, математики и науки. Она использует возможности «мышления», что позволяет ей рассуждать при формировании ответов с повышенной точностью и тонким учетом контекста. Gemini 2.5 Pro демонстрирует высочайшую производительность на множестве тестов, включая первое место в рейтинге LMArena, что отражает превосходное соответствие предпочтениям человека и способности решать сложные задачи.

Входные данные:
126 ₽ / 1M
Текст
Изображения
Файл
Аудио
Видео
Исходящие данные:
1008 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
126 ₽
Исходящие токены за 1M:
1008 ₽
Скопировано в буфер обмена!
Arcee AI
131K

Spotlight — это модель обработки изображений и текста с 7 миллиардами параметров, созданная на основе Qwen 2.5‑VL и доработанная Arcee AI для задач точного связывания изображений и текста. Она предлагает контекстное окно на 32 000 токенов, что позволяет вести богатые мультимодальные беседы, объединяющие длинные документы с одним или несколькими изображениями. Обучение было сосредоточено на быстром выводе на потребительских GPU при сохранении высокой точности в задачах создания подписей, визуального ответа на вопросы и анализа диаграмм. В результате Spotlight легко интегрируется в рабочие процессы агентов, где необходимо быстро интерпретировать скриншоты, диаграммы или макеты пользовательского интерфейса. Ранние тесты показывают, что она сопоставима или превосходит более крупные VLM, такие как LLaVA‑1.6 13 B, в популярных тестах на визуальные вопросы и POPE.

Входные данные:
18 ₽ / 1M
Изображения
Текст
Исходящие данные:
18 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
18 ₽
Исходящие токены за 1M:
18 ₽
Скопировано в буфер обмена!
Arcee AI
131K

Maestro Reasoning — это флагманская модель анализа компании Arcee: производная версия Qwen 2.5‑32 B с 32 миллиардами параметров, настроенная с использованием DPO и обучением с подкреплением на основе цепочки рассуждений для пошаговой логики. По сравнению с предыдущей версией на 7 миллиардов параметров, производственная версия на 32 миллиарда увеличивает контекстное окно до 128 тысяч токенов и удваивает процент прохождения тестов на MATH и GSM‑8K, а также повышает точность завершения кода. Ее стиль инструкций поощряет структурированные следы “мысль → ответ”, которые могут быть разобраны или скрыты в зависимости от предпочтений пользователя. Эта прозрачность хорошо сочетается с отраслями, ориентированными на аудит, такими как финансы или здравоохранение, где важно видеть путь рассуждений. В Arcee Conductor Maestro автоматически выбирается для сложных запросов с множеством ограничений, которые не могут обработать меньшие языковые модели.

Входные данные:
90 ₽ / 1M
Текст
Исходящие данные:
332 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
90 ₽
Исходящие токены за 1M:
332 ₽
Скопировано в буфер обмена!
Arcee AI
131K

Virtuoso‑Large — это универсальная LLM высшего уровня от Arcee с 72 миллиардами параметров, настроенная для решения задач междисциплинарного рассуждения, креативного письма и корпоративного QA. В отличие от многих аналогов с 70 миллиардами параметров, она сохраняет контекст в 128 тысяч, унаследованный от Qwen 2.5, что позволяет ей полностью обрабатывать книги, кодовые базы или финансовые отчеты. Обучение сочетает дистилляцию DeepSeek R1, многократную эпоху контролируемой тонкой настройки и заключительный этап согласования DPO/RLHF, обеспечивая высокую производительность на тестах BIG‑Bench‑Hard, GSM‑8K и Needle‑In‑Haystack для длинного контекста. Компании используют Virtuoso‑Large как “резервный” мозг в конвейерах Conductor, когда другие SLM показывают низкую уверенность. Несмотря на свои размеры, агрессивные оптимизации KV‑кэша удерживают задержку первого токена в пределах нескольких секунд на узлах 8× H100, что делает её мощным инструментом для производственного использования.

Входные данные:
75 ₽ / 1M
Текст
Исходящие данные:
121 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
75 ₽
Исходящие токены за 1M:
121 ₽
Скопировано в буфер обмена!
Arcee AI
33K

Coder‑Large — это модель с 32 миллиардами параметров, являющаяся потомком Qwen 2.5‑Instruct, которая была дополнительно обучена на лицензированных данных из GitHub, CodeSearchNet и синтетических корпусов исправления ошибок. Она поддерживает контекстное окно размером 32 тысячи, что позволяет выполнять рефакторинг нескольких файлов или долгий обзор изменений за один вызов, и понимает более 30 языков программирования, уделяя особое внимание TypeScript, Go и Terraform. Внутренние тесты показывают прирост на 5–8 баллов по сравнению с CodeLlama‑34 B‑Python на HumanEval и конкурентоспособные результаты в исправлении ошибок благодаря этапу усиления, который вознаграждает компилируемый вывод. Модель по умолчанию генерирует структурированные объяснения вместе с блоками кода, что делает её подходящей как для образовательных инструментов, так и для сценариев использования в качестве помощника в производстве. С точки зрения стоимости, Together AI предлагает её значительно дешевле, чем проприетарные аналоги, что позволяет командам масштабировать интерактивное кодирование без чрезмерных затрат.

Входные данные:
50 ₽ / 1M
Текст
Исходящие данные:
80 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
50 ₽
Исходящие токены за 1M:
80 ₽
Скопировано в буфер обмена!
Inception
128K

Mercury Coder — первая диффузионная модель большого языка (dLLM). Применяя прорывной подход дискретной диффузии, модель работает в 5-10 раз быстрее, чем даже оптимизированные по скорости модели, такие как Claude 3.5 Haiku и GPT-4o Mini, при этом соответствуя их производительности. Скорость Mercury Coder означает, что разработчики могут оставаться в потоке во время кодирования, наслаждаясь быстрой итерацией на основе чата и отзывчивыми предложениями по завершению кода. На Copilot Arena Mercury Coder занимает 1-е место по скорости и делит 2-е место по качеству. Подробнее читайте в блог-посте здесь.

Входные данные:
25 ₽ / 1M
Текст
Исходящие данные:
75 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
25 ₽
Исходящие токены за 1M:
75 ₽
Скопировано в буфер обмена!
Meta Llama
164K

Llama Guard 4 — это многомодальная предварительно обученная модель, основанная на Llama 4 Scout, доработанная для классификации безопасности контента. Подобно предыдущим версиям, она может использоваться для классификации контента как во входных данных LLM (классификация запросов), так и в ответах LLM (классификация ответов). Она функционирует как LLM, генерируя текст на выходе, который указывает, является ли данный запрос или ответ безопасным или небезопасным, и если небезопасным, то также перечисляет категории контента, которые были нарушены.

Llama Guard 4 была настроена для защиты от стандартизированной таксономии угроз MLCommons и разработана для поддержки многомодальных возможностей Llama 4. В частности, она объединяет функции предыдущих моделей Llama Guard, обеспечивая модерацию контента для английского и нескольких поддерживаемых языков, а также улучшенные возможности обработки смешанных текстово-изображенческих запросов, включая несколько изображений. Кроме того, Llama Guard 4 интегрирована в Llama Moderations API, расширяя надежную классификацию безопасности на текст и изображения.

Входные данные:
18 ₽ / 1M
Изображения
Текст
Исходящие данные:
18 ₽ / 1M
Текст
Контекст:
164K
Входящие токены за 1M:
18 ₽
Исходящие токены за 1M:
18 ₽