Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (72)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Z AI
205K

По сравнению с GLM-4.5, это поколение вносит несколько ключевых улучшений:

Увеличенное окно контекста: Окно контекста расширено с 128K до 200K токенов, что позволяет модели справляться с более сложными агентными задачами.
Улучшенная производительность в кодировании: Модель достигает более высоких результатов в тестах на код и демонстрирует лучшую производительность в реальных приложениях, таких как Claude Code, Cline, Roo Code и Kilo Code, включая улучшения в создании визуально проработанных фронтэнд-страниц.
Продвинутое рассуждение: GLM-4.6 показывает явное улучшение в производительности рассуждений и поддерживает использование инструментов во время вывода, что приводит к более высокой общей способности.
Более способные агенты: GLM-4.6 демонстрирует более высокую производительность в использовании инструментов и поисковых агентов, а также более эффективно интегрируется в агентные фреймворки.
Улучшенное написание: Лучше соответствует человеческим предпочтениям в стиле и читаемости, и более естественно выполняет ролевые сценарии.

Входные данные:
41 ₽ / 1M
Текст
Исходящие данные:
169 ₽ / 1M
Текст
Контекст:
205K
Входящие токены за 1M:
41 ₽
Исходящие токены за 1M:
169 ₽
Скопировано в буфер обмена!
Anthropic
1M

Claude Sonnet 4.5 — это самая продвинутая модель Sonnet от Anthropic на сегодняшний день, оптимизированная для агентов реального мира и рабочих процессов программирования. Она демонстрирует передовые результаты на тестах программирования, таких как SWE-bench Verified, с улучшениями в проектировании систем, безопасности кода и соблюдении спецификаций. Модель разработана для длительной автономной работы, поддерживая непрерывность задач между сессиями и предоставляя отслеживание прогресса на основе фактов.

Sonnet 4.5 также вводит более сильные агентные возможности, включая улучшенную оркестрацию инструментов, спекулятивное параллельное выполнение и более эффективное управление контекстом и памятью. Благодаря улучшенному отслеживанию контекста и осведомленности о использовании токенов в вызовах инструментов, она особенно хорошо подходит для многоконтекстных и длительных рабочих процессов. Области применения охватывают разработку программного обеспечения, кибербезопасность, финансовый анализ, исследовательские агенты и другие области, требующие устойчивого рассуждения и использования инструментов.

Входные данные:
291 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
1458 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
291 ₽
Исходящие токены за 1M:
1458 ₽
Скопировано в буфер обмена!
DeepSeek
164K

DeepSeek-V3.2-Exp — это экспериментальная крупная языковая модель, выпущенная компанией DeepSeek как промежуточный шаг между V3.1 и будущими архитектурами. Она вводит механизм DeepSeek Sparse Attention (DSA), тонко настроенный разреженный механизм внимания, разработанный для повышения эффективности обучения и вывода в сценариях с длинным контекстом, сохраняя при этом качество вывода. Пользователи могут управлять поведением рассуждений с помощью логического параметра reasoning enabled.

Модель была обучена в условиях, согласованных с V3.1-Terminus, чтобы обеспечить прямое сравнение. Тестирование показывает производительность примерно на уровне V3.1 в задачах рассуждения, кодирования и использования агентных инструментов, с незначительными компромиссами и улучшениями в зависимости от области. Этот выпуск сосредоточен на проверке архитектурных оптимизаций для увеличенных длин контекста, а не на повышении точности выполнения задач, что делает его в первую очередь исследовательской моделью для изучения эффективных дизайнов трансформеров.

Входные данные:
26 ₽ / 1M
Текст
Исходящие данные:
39 ₽ / 1M
Текст
Контекст:
164K
Входящие токены за 1M:
26 ₽
Исходящие токены за 1M:
39 ₽
Скопировано в буфер обмена!
The Drummer
131K

Модель для нецензурированного и креативного письма, основанная на Mistral Small 3.2 24B, с хорошей памятью, соблюдением инструкций и интеллектом.

Входные данные:
29 ₽ / 1M
Текст
Исходящие данные:
48 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
29 ₽
Исходящие токены за 1M:
48 ₽
Скопировано в буфер обмена!
Relace
256K

Relace Apply 3 — это специализированная LLM для исправления кода, которая интегрирует предлагаемые ИИ изменения прямо в ваши исходные файлы. Она может применять обновления от GPT-4o, Claude и других в ваши файлы со средней скоростью 7500 токенов в секунду.

Модель требует, чтобы запрос был в следующем формате:

{инструкция}

{исходный_код}

{фрагмент_правки}

Для Relace включено нулевое сохранение данных.

Входные данные:
82 ₽ / 1M
Текст
Исходящие данные:
121 ₽ / 1M
Текст
Контекст:
256K
Входящие токены за 1M:
82 ₽
Исходящие токены за 1M:
121 ₽
Скопировано в буфер обмена!
Google
1M

Gemini 2.5 Flash-Lite — это облегченная модель рассуждений в семействе Gemini 2.5, оптимизированная для сверхнизкой задержки и экономичности. Она обеспечивает повышенную пропускную способность, более быстрое создание токенов и лучшую производительность по общим тестам по сравнению с предыдущими моделями Flash. По умолчанию “мышление” (т.е. многократное рассуждение) отключено для приоритета скорости, но разработчики могут включить его через параметр Reasoning API, чтобы избирательно обменивать стоимость на интеллект.

Входные данные:
9 ₽ / 1M
Текст
Изображения
Файл
Аудио
Видео
Исходящие данные:
38 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
38 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen3-VL-235B-A22B Thinking — это мультимодальная модель, объединяющая мощную генерацию текста с визуальным пониманием изображений и видео. Модель Thinking оптимизирована для мультимодального рассуждения в STEM и математике. Серия делает акцент на надежном восприятии (распознавание разнообразных реальных и синтетических категорий), пространственном понимании (привязка к 2D/3D) и долгосрочном визуальном понимании, демонстрируя конкурентоспособные результаты на публичных мультимодальных тестах как для восприятия, так и для рассуждения.

Помимо анализа, Qwen3-VL поддерживает агентное взаимодействие и использование инструментов: она может следовать сложным инструкциям в диалогах с несколькими изображениями и несколькими этапами; синхронизировать текст с временными шкалами видео для точных временных запросов; и управлять элементами графического интерфейса для автоматизации задач. Модели также поддерживают рабочие процессы визуального кодирования, превращая эскизы или макеты в код и помогая с отладкой интерфейса, сохраняя при этом высокую производительность только на текстовом уровне, сравнимую с флагманскими языковыми моделями Qwen3. Это делает Qwen3-VL подходящей для производственных сценариев, охватывающих документальный ИИ, многоязычный OCR, помощь с программным обеспечением/интерфейсом, пространственные/воплощенные задачи и исследования агентов, работающих с видением и языком.

Входные данные:
25 ₽ / 1M
Текст
Изображения
Исходящие данные:
252 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
25 ₽
Исходящие токены за 1M:
252 ₽
Скопировано в буфер обмена!
Qwen
262K

Qwen3-VL-235B-A22B Instruct — это многомодальная модель с открытыми весами, которая объединяет мощную генерацию текста с визуальным пониманием изображений и видео. Модель Instruct нацелена на общее использование в области зрения и языка (VQA, разбор документов, извлечение данных из диаграмм/таблиц, многоязычный OCR). Серия подчеркивает надежное восприятие (распознавание разнообразных реальных и синтетических категорий), пространственное понимание (2D/3D привязка) и долгосрочное визуальное понимание, демонстрируя конкурентоспособные результаты на публичных многомодальных тестах как в восприятии, так и в рассуждении.

Помимо анализа, Qwen3-VL поддерживает агентное взаимодействие и использование инструментов: она может следовать сложным инструкциям в диалогах с несколькими изображениями и несколькими этапами; выравнивать текст с временными шкалами видео для точных временных запросов; и управлять элементами графического интерфейса для автоматизации задач. Модели также позволяют выполнять визуальные рабочие процессы кодирования — превращать эскизы или макеты в код и помогать с отладкой пользовательского интерфейса — при этом сохраняя сильную производительность только на текстах, сопоставимую с флагманскими языковыми моделями Qwen3. Это делает Qwen3-VL подходящей для производственных сценариев, охватывающих документальный ИИ, многоязычный OCR, помощь в программном обеспечении/пользовательском интерфейсе, пространственные/воплощенные задачи и исследования агентов в области зрения и языка.

Входные данные:
19 ₽ / 1M
Текст
Изображения
Исходящие данные:
85 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
19 ₽
Исходящие токены за 1M:
85 ₽
Скопировано в буфер обмена!
Qwen
262K

Qwen3-Max — это обновленная версия, основанная на серии Qwen3, предлагающая значительные улучшения в области рассуждений, следования инструкциям, поддержки многоязычности и охвата знаний по редким темам по сравнению с версией января 2025 года. Она обеспечивает более высокую точность в задачах по математике, программированию, логике и наукам, более надежно следует сложным инструкциям на китайском и английском языках, снижает количество галлюцинаций и производит более качественные ответы для открытых вопросов, написания и общения. Модель поддерживает более 100 языков с улучшенным переводом и здравым смыслом в рассуждениях и оптимизирована для генерации с дополнением извлечением (RAG) и вызова инструментов, хотя не включает в себя специальный режим “мышления”.

Входные данные:
75 ₽ / 1M
Текст
Исходящие данные:
379 ₽ / 1M
Текст
Контекст:
262K
Входящие токены за 1M:
75 ₽
Исходящие токены за 1M:
379 ₽
Скопировано в буфер обмена!
Qwen
1M

Qwen3 Coder Plus — это собственная версия Alibaba на основе Open Source Qwen3 Coder 480B A35B. Это мощная модель программирования, специализирующаяся на автономном программировании с использованием вызова инструментов и взаимодействия с окружающей средой, сочетая в себе навыки программирования с универсальными возможностями общего назначения.

Входные данные:
63 ₽ / 1M
Текст
Исходящие данные:
316 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
63 ₽
Исходящие токены за 1M:
316 ₽
Скопировано в буфер обмена!
OpenAI
400K

GPT-5-Codex — это специализированная версия GPT-5, оптимизированная для программной инженерии и рабочих процессов кодирования. Она предназначена как для интерактивных сессий разработки, так и для длительного, независимого выполнения сложных инженерных задач. Модель поддерживает создание проектов с нуля, разработку функций, отладку, крупномасштабное рефакторинг и обзор кода. По сравнению с GPT-5, Codex более управляем, строго следует инструкциям разработчика и производит более чистый и качественный код. Усилия по рассуждению можно регулировать с помощью параметра reasoning.effort.

Codex интегрируется в среды разработчиков, включая CLI, расширения IDE, GitHub и облачные задачи. Он динамически адаптирует усилия по рассуждению — предоставляя быстрые ответы для небольших задач и поддерживая длительные многочасовые запуски для крупных проектов. Модель обучена выполнять структурированные обзоры кода, выявляя критические недостатки путем анализа зависимостей и проверки поведения на основе тестов. Она также поддерживает мультимодальные входные данные, такие как изображения или скриншоты для разработки пользовательского интерфейса, и интегрирует использование инструментов для поиска, установки зависимостей и настройки окружения. Codex предназначен специально для агентных приложений кодирования.

Входные данные:
121 ₽ / 1M
Текст
Изображения
Исходящие данные:
972 ₽ / 1M
Текст
Контекст:
400K
Входящие токены за 1M:
121 ₽
Исходящие токены за 1M:
972 ₽
Скопировано в буфер обмена!
DeepSeek
164K

DeepSeek-V3.1 Terminus — это обновление для DeepSeek V3.1, которое сохраняет изначальные возможности модели, устраняя при этом проблемы, о которых сообщали пользователи, включая языковую согласованность и возможности агентов, и дополнительно оптимизирует производительность модели в кодировании и поисковых агентах. Это крупная гибридная модель рассуждений (671 миллиард параметров, 37 миллиардов активных), поддерживающая как режимы мышления, так и немышления. Она расширяет базу DeepSeek-V3 с помощью двухфазного процесса обучения с длинным контекстом, достигая до 128 тысяч токенов, и использует FP8 микромасштабирование для эффективного вывода. Пользователи могут управлять поведением рассуждений с помощью булевой переменной reasoning enabled.

Модель улучшает использование инструментов, генерацию кода и эффективность рассуждений, достигая производительности, сопоставимой с DeepSeek-R1 на сложных тестах, при этом отвечая быстрее. Она поддерживает структурированные вызовы инструментов, кодовые агенты и поисковые агенты, что делает её подходящей для исследований, кодирования и агентных рабочих процессов.

Входные данные:
20 ₽ / 1M
Текст
Исходящие данные:
76 ₽ / 1M
Текст
Контекст:
164K
Входящие токены за 1M:
20 ₽
Исходящие токены за 1M:
76 ₽
Скопировано в буфер обмена!
DeepSeek
164K

DeepSeek-V3.1 Terminus — это обновление для DeepSeek V3.1, которое сохраняет исходные возможности модели, устраняя при этом проблемы, о которых сообщали пользователи, включая языковую согласованность и возможности агентов, и дополнительно оптимизирует производительность модели в кодировании и поисковых агентах. Это крупная гибридная модель рассуждений (671 миллиардов параметров, 37 миллиардов активных), поддерживающая как режимы мышления, так и немышления. Она расширяет базу DeepSeek-V3 с помощью двухфазного процесса обучения на длинных контекстах, достигая до 128 тысяч токенов, и использует микромасштабирование FP8 для эффективного вывода. Пользователи могут управлять поведением рассуждений с помощью булевой переменной reasoning enabled.

Модель улучшает использование инструментов, генерацию кода и эффективность рассуждений, достигая производительности, сопоставимой с DeepSeek-R1 на сложных контрольных тестах, при этом отвечая быстрее. Она поддерживает структурированные вызовы инструментов, кодовые агенты и поисковые агенты, что делает её подходящей для исследований, кодирования и агентных рабочих процессов.

Входные данные:
20 ₽ / 1M
Текст
Исходящие данные:
76 ₽ / 1M
Текст
Контекст:
164K
Входящие токены за 1M:
20 ₽
Исходящие токены за 1M:
76 ₽
Скопировано в буфер обмена!
xAI
2M

Grok 4 Fast — это последняя мультимодальная модель от xAI с передовой экономичностью и контекстным окном на 2 миллиона токенов. Она представлена в двух вариантах: без рассуждений и с рассуждениями. Подробнее о модели можно прочитать в новостном посте xAI. Режим рассуждений можно включить с помощью параметра reasoning enabled в API.

Подсказки и завершения в Grok 4 Fast Free могут использоваться xAI для улучшения будущих моделей.

Входные данные:
19 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
48 ₽ / 1M
Текст
Контекст:
2M
Входящие токены за 1M:
19 ₽
Исходящие токены за 1M:
48 ₽
Скопировано в буфер обмена!
Alibaba
131K

Tongyi DeepResearch — это агентная крупная языковая модель, разработанная Tongyi Lab, с общим количеством параметров в 30 миллиардов, из которых активируется только 3 миллиарда на каждый токен. Она оптимизирована для долгосрочных задач, требующих глубокого поиска информации, и демонстрирует передовую производительность на таких тестах, как Humanity’s Last Exam, BrowserComp, BrowserComp-ZH, WebWalkerQA, GAIA, xbench-DeepSearch и FRAMES. Это делает её превосходной для сложного агентного поиска, рассуждений и многослойного решения проблем по сравнению с предыдущими моделями.

Модель включает полностью автоматизированный синтетический конвейер данных для масштабируемого предобучения, тонкой настройки и обучения с подкреплением. Она использует крупномасштабное непрерывное предобучение на разнообразных агентных данных для улучшения рассуждений и поддержания актуальности. Также в ней реализовано сквозное обучение с подкреплением на политике с использованием индивидуализированной оптимизации групповой относительной политики, включая градиенты на уровне токенов и фильтрацию отрицательных образцов для стабильного обучения. Модель поддерживает ReAct для проверки основных способностей и режим ‘Heavy’ на основе IterResearch для максимальной производительности за счет масштабирования во время тестирования. Она идеально подходит для продвинутых исследовательских агентов, использования инструментов и интенсивных рабочих процессов вывода.

Входные данные:
8 ₽ / 1M
Текст
Исходящие данные:
43 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
8 ₽
Исходящие токены за 1M:
43 ₽