Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (66)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Kwaipilot
256K

KAT-Coder-Pro V1 — это самая продвинутая модель агентного кодирования от KwaiKAT в серии KAT-Coder. Разработанная специально для задач агентного кодирования, она превосходно справляется с реальными сценариями программной инженерии, достигая 73,4% решения на эталонном тесте SWE-Bench Verified.

Модель была оптимизирована для использования инструментов, многоходового взаимодействия, следования инструкциям, обобщения и комплексных возможностей через многоэтапный процесс обучения, включающий промежуточное обучение, контролируемую тонкую настройку (SFT), усиленную тонкую настройку (RFT) и масштабируемое агентное обучение с подкреплением (RL).

Входные данные:
20 ₽ / 1M
Текст
Исходящие данные:
83 ₽ / 1M
Текст
Контекст:
256K
Входящие токены за 1M:
20 ₽
Исходящие токены за 1M:
83 ₽
Скопировано в буфер обмена!
Moonshot AI
131K

Kimi K2 Thinking — это самая передовая модель открытого рассуждения от Moonshot AI на сегодняшний день, расширяющая серию K2 в область агентного, долгосрочного рассуждения. Построенная на архитектуре Mixture-of-Experts (MoE) с триллионом параметров, представленной в Kimi K2, она активирует 32 миллиарда параметров за один проход и поддерживает контекстные окна размером 256 тысяч токенов. Модель оптимизирована для последовательного пошагового мышления, динамического вызова инструментов и сложных рабочих процессов рассуждения, которые охватывают сотни шагов. Она сочетает пошаговое рассуждение с использованием инструментов, что позволяет автономно проводить исследования, писать код и создавать тексты, которые могут сохраняться на протяжении сотен последовательных действий без отклонений.

Она устанавливает новые показатели для открытого исходного кода на HLE, BrowseComp, SWE-Multilingual и LiveCodeBench, при этом поддерживая стабильное поведение мультиагентов через 200–300 вызовов инструментов. Построенная на крупномасштабной архитектуре MoE с оптимизацией MuonClip, она сочетает в себе глубокие рассуждения с высокой эффективностью вывода для требовательных агентных и аналитических задач.

Входные данные:
47 ₽ / 1M
Текст
Исходящие данные:
201 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
47 ₽
Исходящие токены за 1M:
201 ₽
Скопировано в буфер обмена!
Amazon
1M

Amazon Nova Premier является самой мощной из мультимодальных моделей Amazon для выполнения сложных задач рассуждения и используется в качестве лучшего учителя для дистилляции пользовательских моделей.

Входные данные:
252 ₽ / 1M
Текст
Изображения
Исходящие данные:
1261 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
252 ₽
Исходящие токены за 1M:
1261 ₽
Скопировано в буфер обмена!
Mistral AI
8K

Mistral Embed — это специализированная модель встраивания для текстовых данных, оптимизированная для семантического поиска и приложений RAG. Разработанная Mistral AI в конце 2023 года, она производит векторы размерностью 1024, которые эффективно улавливают семантические отношения в тексте.

Входные данные:
10 ₽ / 1M
Текст
Исходящие данные:
0 ₽ / 1M
Embeddings
Контекст:
8K
Входящие токены за 1M:
10 ₽
Исходящие токены за 1M:
0 ₽
Скопировано в буфер обмена!
Google
20K

gemini-embedding-001 обеспечивает передовой унифицированный опыт в различных областях, включая науку, право, финансы и программирование. Эта модель встраивания стабильно занимает лидирующие позиции в многоязычном рейтинге Massive Text Embedding Benchmark (MTEB) с момента экспериментального запуска в марте.

Входные данные:
15 ₽ / 1M
Текст
Исходящие данные:
0 ₽ / 1M
Embeddings
Контекст:
20K
Входящие токены за 1M:
15 ₽
Исходящие токены за 1M:
0 ₽
Скопировано в буфер обмена!
OpenAI
8K

text-embedding-ada-002 — это устаревшая модель текстового встраивания от OpenAI.

Входные данные:
10 ₽ / 1M
Текст
Исходящие данные:
0 ₽ / 1M
Embeddings
Контекст:
8K
Входящие токены за 1M:
10 ₽
Исходящие токены за 1M:
0 ₽
Скопировано в буфер обмена!
Mistral AI
8K

Mistral Codestral Embed специально разработан для работы с кодом, идеально подходит для встраивания кодовых баз данных, репозиториев и обеспечения работы кодовых ассистентов с передовыми методами поиска.

Входные данные:
15 ₽ / 1M
Текст
Исходящие данные:
0 ₽ / 1M
Embeddings
Контекст:
8K
Входящие токены за 1M:
15 ₽
Исходящие токены за 1M:
0 ₽
Скопировано в буфер обмена!
OpenAI
8K

text-embedding-3-large — это самая мощная модель встраивания от OpenAI для задач как на английском, так и на других языках. Встраивания представляют собой числовое представление текста, которое можно использовать для измерения взаимосвязанности между двумя фрагментами текста. Встраивания полезны для поиска, кластеризации, рекомендаций, обнаружения аномалий и задач классификации.

Входные данные:
13 ₽ / 1M
Текст
Исходящие данные:
0 ₽ / 1M
Embeddings
Контекст:
8K
Входящие токены за 1M:
13 ₽
Исходящие токены за 1M:
0 ₽
Скопировано в буфер обмена!
OpenAI
8K

text-embedding-3-small — это улучшенная и более производительная версия модели ada embedding от OpenAI. Встраивания представляют собой числовое представление текста, которое можно использовать для измерения степени связанности между двумя текстами. Встраивания полезны для задач поиска, кластеризации, рекомендаций, обнаружения аномалий и классификации.

Входные данные:
2 ₽ / 1M
Текст
Исходящие данные:
0 ₽ / 1M
Embeddings
Контекст:
8K
Входящие токены за 1M:
2 ₽
Исходящие токены за 1M:
0 ₽
Скопировано в буфер обмена!
Perplexity
200K

Эксклюзивно доступный через API, новый режим Pro Search в Sonar Pro является самым продвинутым агентным поисковым системом Perplexity. Он разработан для более глубокого анализа и рассуждений. Цены основаны на количестве токенов плюс цена за тысячу запросов. Эта модель обеспечивает работу режима Pro Search на платформе Perplexity.

Sonar Pro Search добавляет автономное, многоэтапное рассуждение в Sonar Pro. Вместо одной лишь запроса и синтеза, он планирует и выполняет целые исследовательские процессы с использованием инструментов.

Входные данные:
302 ₽ / 1M
Текст
Изображения
Исходящие данные:
1513 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
302 ₽
Исходящие токены за 1M:
1513 ₽
Скопировано в буфер обмена!
Mistral AI
32K

Voxtral Small — это усовершенствованная версия Mistral Small 3, которая включает в себя передовые возможности аудиоввода, сохраняя при этом первоклассную производительность текста. Она превосходно справляется с транскрипцией речи, переводом и пониманием аудио. Стоимость ввода аудио составляет 100 долларов за миллион секунд.

Входные данные:
10 ₽ / 1M
Текст
Аудио
Исходящие данные:
30 ₽ / 1M
Текст
Контекст:
32K
Входящие токены за 1M:
10 ₽
Исходящие токены за 1M:
30 ₽
Скопировано в буфер обмена!
OpenAI
131K

gpt-oss-safeguard-20b — это модель рассуждений по безопасности от OpenAI, построенная на основе gpt-oss-20b. Эта модель с открытыми весами и 21 миллиардом параметров, использующая архитектуру Mixture-of-Experts (MoE), обеспечивает более низкую задержку для задач безопасности, таких как классификация контента, фильтрация LLM и маркировка доверия и безопасности.

Входные данные:
7 ₽ / 1M
Текст
Исходящие данные:
30 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
7 ₽
Исходящие токены за 1M:
30 ₽
Скопировано в буфер обмена!
Qwen
32K

Серия моделей Qwen3 Embedding — это последняя собственная модель семейства Qwen, специально разработанная для задач текстового встраивания и ранжирования. Эта серия наследует исключительные многоязычные возможности, понимание длинных текстов и навыки рассуждения своей базовой модели. Серия Qwen3 Embedding представляет собой значительные достижения в различных задачах текстового встраивания и ранжирования, включая поиск текста, поиск кода, классификацию текста, кластеризацию текста и двуязычный майнинг.

Входные данные:
1 ₽ / 1M
Текст
Исходящие данные:
0 ₽ / 1M
Embeddings
Контекст:
32K
Входящие токены за 1M:
1 ₽
Исходящие токены за 1M:
0 ₽
Скопировано в буфер обмена!
NVIDIA
131K

NVIDIA Nemotron Nano 2 VL — это открытая мультимодальная модель рассуждений с 12 миллиардами параметров, разработанная для понимания видео и обработки документов. Она вводит гибридную архитектуру Transformer-Mamba, сочетая точность уровня трансформера с энергоэффективным моделированием последовательностей Mamba для значительно более высокой пропускной способности и меньшей задержки.

Модель поддерживает ввод текстов и документов с несколькими изображениями, создавая выходные данные на естественном языке. Она обучена на высококачественных синтетических наборах данных, отобранных NVIDIA, оптимизированных для распознавания оптических символов, анализа диаграмм и мультимодального понимания.

Nemotron Nano 2 VL достигает ведущих результатов на OCRBench v2 и набирает в среднем ≈ 74 балла по MMMU, MathVista, AI2D, OCRBench, OCR-Reasoning, ChartQA, DocVQA и Video-MME, превосходя предыдущие открытые VL-базовые показатели. С помощью Efficient Video Sampling (EVS) она обрабатывает длинные видео, снижая стоимость вывода.

Открытые веса, обучающие данные и рецепты для тонкой настройки выпущены под разрешительной открытой лицензией NVIDIA, с поддержкой развертывания в NeMo, NIM и основных средах вывода.

Входные данные:
20 ₽ / 1M
Изображения
Текст
Видео
Исходящие данные:
60 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
20 ₽
Исходящие токены за 1M:
60 ₽
Скопировано в буфер обмена!
Qwen
33K

Серия моделей Qwen3 Embedding является последней собственнической моделью семейства Qwen, специально разработанной для задач встраивания текста и ранжирования. Эта серия наследует исключительные многоязычные возможности, понимание длинных текстов и навыки рассуждения своей базовой модели. Серия Qwen3 Embedding представляет значительные достижения в различных задачах встраивания и ранжирования текста, включая поиск текста, поиск кода, классификацию текста, кластеризацию текста и двуязычный майнинг.

Входные данные:
2 ₽ / 1M
Текст
Исходящие данные:
0 ₽ / 1M
Embeddings
Контекст:
33K
Входящие токены за 1M:
2 ₽
Исходящие токены за 1M:
0 ₽