Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (72)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Mistral AI
8K

Mistral Embed — это специализированная модель встраивания для текстовых данных, оптимизированная для семантического поиска и приложений RAG. Разработанная Mistral AI в конце 2023 года, она производит векторы размерностью 1024, которые эффективно улавливают семантические отношения в тексте.

Входные данные:
9 ₽ / 1M
Текст
Исходящие данные:
0 ₽ / 1M
Embeddings
Контекст:
8K
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
0 ₽
Скопировано в буфер обмена!
Google
20K

gemini-embedding-001 обеспечивает передовой унифицированный опыт в различных областях, включая науку, право, финансы и программирование. Эта модель встраивания стабильно занимает лидирующие позиции в многоязычном рейтинге Massive Text Embedding Benchmark (MTEB) с момента экспериментального запуска в марте.

Входные данные:
14 ₽ / 1M
Текст
Исходящие данные:
0 ₽ / 1M
Embeddings
Контекст:
20K
Входящие токены за 1M:
14 ₽
Исходящие токены за 1M:
0 ₽
Скопировано в буфер обмена!
OpenAI
8K

text-embedding-ada-002 — это устаревшая модель текстового встраивания от OpenAI.

Входные данные:
9 ₽ / 1M
Текст
Исходящие данные:
0 ₽ / 1M
Embeddings
Контекст:
8K
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
0 ₽
Скопировано в буфер обмена!
Mistral AI
8K

Mistral Codestral Embed специально разработан для работы с кодом, идеально подходит для встраивания кодовых баз данных, репозиториев и обеспечения работы кодовых ассистентов с передовыми методами поиска.

Входные данные:
14 ₽ / 1M
Текст
Исходящие данные:
0 ₽ / 1M
Embeddings
Контекст:
8K
Входящие токены за 1M:
14 ₽
Исходящие токены за 1M:
0 ₽
Скопировано в буфер обмена!
OpenAI
8K

text-embedding-3-large — это самая мощная модель встраивания от OpenAI для задач как на английском, так и на других языках. Встраивания представляют собой числовое представление текста, которое можно использовать для измерения взаимосвязанности между двумя фрагментами текста. Встраивания полезны для поиска, кластеризации, рекомендаций, обнаружения аномалий и задач классификации.

Входные данные:
12 ₽ / 1M
Текст
Исходящие данные:
0 ₽ / 1M
Embeddings
Контекст:
8K
Входящие токены за 1M:
12 ₽
Исходящие токены за 1M:
0 ₽
Скопировано в буфер обмена!
OpenAI
8K

text-embedding-3-small — это улучшенная и более производительная версия модели ada embedding от OpenAI. Встраивания представляют собой числовое представление текста, которое можно использовать для измерения степени связанности между двумя текстами. Встраивания полезны для задач поиска, кластеризации, рекомендаций, обнаружения аномалий и классификации.

Входные данные:
1 ₽ / 1M
Текст
Исходящие данные:
0 ₽ / 1M
Embeddings
Контекст:
8K
Входящие токены за 1M:
1 ₽
Исходящие токены за 1M:
0 ₽
Скопировано в буфер обмена!
Perplexity
200K

Эксклюзивно доступный через API, новый режим Pro Search в Sonar Pro является самым продвинутым агентным поисковым системом Perplexity. Он разработан для более глубокого анализа и рассуждений. Цены основаны на количестве токенов плюс цена за тысячу запросов. Эта модель обеспечивает работу режима Pro Search на платформе Perplexity.

Sonar Pro Search добавляет автономное, многоэтапное рассуждение в Sonar Pro. Вместо одной лишь запроса и синтеза, он планирует и выполняет целые исследовательские процессы с использованием инструментов.

Входные данные:
291 ₽ / 1M
Текст
Изображения
Исходящие данные:
1458 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
291 ₽
Исходящие токены за 1M:
1458 ₽
Скопировано в буфер обмена!
Mistral AI
32K

Voxtral Small — это усовершенствованная версия Mistral Small 3, которая включает в себя передовые возможности аудиоввода, сохраняя при этом первоклассную производительность текста. Она превосходно справляется с транскрипцией речи, переводом и пониманием аудио. Стоимость ввода аудио составляет 100 долларов за миллион секунд.

Входные данные:
9 ₽ / 1M
Текст
Аудио
Исходящие данные:
29 ₽ / 1M
Текст
Контекст:
32K
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
29 ₽
Скопировано в буфер обмена!
OpenAI
131K

gpt-oss-safeguard-20b — это модель рассуждений по безопасности от OpenAI, построенная на основе gpt-oss-20b. Эта модель с открытыми весами и 21 миллиардом параметров, использующая архитектуру Mixture-of-Experts (MoE), обеспечивает более низкую задержку для задач безопасности, таких как классификация контента, фильтрация LLM и маркировка доверия и безопасности.

Входные данные:
7 ₽ / 1M
Текст
Исходящие данные:
29 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
7 ₽
Исходящие токены за 1M:
29 ₽
Скопировано в буфер обмена!
Qwen
32K

Серия моделей Qwen3 Embedding — это последняя собственная модель семейства Qwen, специально разработанная для задач текстового встраивания и ранжирования. Эта серия наследует исключительные многоязычные возможности, понимание длинных текстов и навыки рассуждения своей базовой модели. Серия Qwen3 Embedding представляет собой значительные достижения в различных задачах текстового встраивания и ранжирования, включая поиск текста, поиск кода, классификацию текста, кластеризацию текста и двуязычный майнинг.

Входные данные:
0,97 ₽ / 1M
Текст
Исходящие данные:
0 ₽ / 1M
Embeddings
Контекст:
32K
Входящие токены за 1M:
0,97 ₽
Исходящие токены за 1M:
0 ₽
Скопировано в буфер обмена!
NVIDIA
131K

NVIDIA Nemotron Nano 2 VL — это открытая мультимодальная модель рассуждений с 12 миллиардами параметров, разработанная для понимания видео и обработки документов. Она вводит гибридную архитектуру Transformer-Mamba, сочетая точность уровня трансформера с энергоэффективным моделированием последовательностей Mamba для значительно более высокой пропускной способности и меньшей задержки.

Модель поддерживает ввод текстов и документов с несколькими изображениями, создавая выходные данные на естественном языке. Она обучена на высококачественных синтетических наборах данных, отобранных NVIDIA, оптимизированных для распознавания оптических символов, анализа диаграмм и мультимодального понимания.

Nemotron Nano 2 VL достигает ведущих результатов на OCRBench v2 и набирает в среднем ≈ 74 балла по MMMU, MathVista, AI2D, OCRBench, OCR-Reasoning, ChartQA, DocVQA и Video-MME, превосходя предыдущие открытые VL-базовые показатели. С помощью Efficient Video Sampling (EVS) она обрабатывает длинные видео, снижая стоимость вывода.

Открытые веса, обучающие данные и рецепты для тонкой настройки выпущены под разрешительной открытой лицензией NVIDIA, с поддержкой развертывания в NeMo, NIM и основных средах вывода.

Входные данные:
19 ₽ / 1M
Изображения
Текст
Видео
Исходящие данные:
58 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
19 ₽
Исходящие токены за 1M:
58 ₽
Скопировано в буфер обмена!
Qwen
33K

Серия моделей Qwen3 Embedding является последней собственнической моделью семейства Qwen, специально разработанной для задач встраивания текста и ранжирования. Эта серия наследует исключительные многоязычные возможности, понимание длинных текстов и навыки рассуждения своей базовой модели. Серия Qwen3 Embedding представляет значительные достижения в различных задачах встраивания и ранжирования текста, включая поиск текста, поиск кода, классификацию текста, кластеризацию текста и двуязычный майнинг.

Входные данные:
1 ₽ / 1M
Текст
Исходящие данные:
0 ₽ / 1M
Embeddings
Контекст:
33K
Входящие токены за 1M:
1 ₽
Исходящие токены за 1M:
0 ₽
Скопировано в буфер обмена!
Yandex
33K

Alice AI LLM имеет архитектуру Mixture of Experts и обучена с подкреплением (Reinforcement Learning) с многокомпонентными наградами. Модель использует для ответа не все параметры, а только самые релевантные — как будто привлекая эксперта для решения каждой конкретной задачи.

Входные данные:
651 ₽ / 1M
Текст
Исходящие данные:
2596 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
651 ₽
Исходящие токены за 1M:
2596 ₽
Скопировано в буфер обмена!
Minimax
197K

MiniMax-M2 — это компактная, высокоэффективная большая языковая модель, оптимизированная для сквозного кодирования и агентных рабочих процессов. С 10 миллиардами активированных параметров (всего 230 миллиардов) она обеспечивает почти передовой уровень интеллекта в области общего рассуждения, использования инструментов и выполнения многошаговых задач, сохраняя при этом низкую задержку и эффективность развертывания.

Модель превосходно справляется с генерацией кода, редактированием нескольких файлов, циклами компиляции-запуска-исправления и тестово-валидированным ремонтом, демонстрируя высокие результаты на SWE-Bench Verified, Multi-SWE-Bench и Terminal-Bench. Она также показывает конкурентоспособность в агентных оценках, таких как BrowseComp и GAIA, эффективно справляясь с долгосрочным планированием, извлечением и восстановлением после ошибок выполнения.

По данным Artificial Analysis, MiniMax-M2 занимает одно из ведущих мест среди открытых моделей для комплексного интеллекта, охватывающего математику, науку и следование инструкциям. Ее небольшой активированный след позволяет обеспечить быструю инференцию, высокую конкурентоспособность и улучшенную экономику единицы, что делает ее подходящей для крупных агентов, помощников разработчиков и приложений, ориентированных на рассуждения, требующих отзывчивости и экономической эффективности.

Чтобы избежать ухудшения производительности этой модели, MiniMax настоятельно рекомендует сохранять рассуждения между ходами.

Входные данные:
24 ₽ / 1M
Текст
Исходящие данные:
97 ₽ / 1M
Текст
Контекст:
197K
Входящие токены за 1M:
24 ₽
Исходящие токены за 1M:
97 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen3-VL-32B-Instruct — это крупномасштабная мультимодальная модель для работы с визуальной и текстовой информацией, разработанная для высокоточной интерпретации и анализа текста, изображений и видео. С 32 миллиардами параметров она сочетает глубокое визуальное восприятие с продвинутым пониманием текста, что позволяет выполнять детализированное пространственное рассуждение, анализ документов и сцен, а также понимание видео на длинных временных интервалах. Обладает надежным OCR на 32 языках и улучшенной мультимодальной интеграцией благодаря архитектурам Interleaved-MRoPE и DeepStack. Оптимизированная для агентного взаимодействия и использования визуальных инструментов, Qwen3-VL-32B обеспечивает передовую производительность для сложных мультимодальных задач в реальном мире.

Входные данные:
10 ₽ / 1M
Текст
Изображения
Исходящие данные:
40 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
10 ₽
Исходящие токены за 1M:
40 ₽