Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (72)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Mistral AI
131K

Это флагманская модель Mistral AI, Mistral Large 2 (версия mistral-large-2407). Это проприетарная модель с доступными весами, которая превосходно справляется с задачами рассуждения, кодирования, обработки JSON, общения и многим другим. Прочитайте объявление о запуске здесь.

Она поддерживает десятки языков, включая французский, немецкий, испанский, итальянский, португальский, арабский, хинди, русский, китайский, японский и корейский, а также более 80 языков программирования, включая Python, Java, C, C++, JavaScript и Bash. Ее длинное контекстное окно позволяет точно извлекать информацию из больших документов.

Входные данные:
194 ₽ / 1M
Текст
Исходящие данные:
583 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
194 ₽
Исходящие токены за 1M:
583 ₽
Скопировано в буфер обмена!
Mistral AI
131K

Pixtral Large — это мультимодальная модель с 124 миллиардами параметров, построенная на основе Mistral Large 2. Модель способна понимать документы, диаграммы и естественные изображения.

Модель доступна по лицензии Mistral Research License (MRL) для исследовательского и образовательного использования, а также по лицензии Mistral Commercial License для экспериментов, тестирования и производства в коммерческих целях.

Входные данные:
194 ₽ / 1M
Текст
Изображения
Исходящие данные:
583 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
194 ₽
Исходящие токены за 1M:
583 ₽
Скопировано в буфер обмена!
Qwen
33K

Qwen2.5-Coder — это последняя серия языковых моделей Qwen, ориентированных на код (ранее известных как CodeQwen). Qwen2.5-Coder предлагает следующие улучшения по сравнению с CodeQwen1.5:

  • Значительные улучшения в генерации кода, логическом выводе кода и исправлении кода.
  • Более всеобъемлющая основа для реальных приложений, таких как Code Agents. Это не только улучшает возможности кодирования, но и сохраняет свои сильные стороны в математике и общих компетенциях.

Чтобы узнать больше о результатах оценки, посетите блог Qwen 2.5 Coder.

Входные данные:
64 ₽ / 1M
Текст
Исходящие данные:
97 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
64 ₽
Исходящие токены за 1M:
97 ₽
Скопировано в буфер обмена!
The Drummer
33K

UnslopNemo v4.1 — это последняя разработка от создателя Rocinante, предназначенная для написания приключенческих историй и ролевых сценариев.

Входные данные:
38 ₽ / 1M
Текст
Исходящие данные:
38 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
38 ₽
Исходящие токены за 1M:
38 ₽
Скопировано в буфер обмена!
Anthropic
200K

Функции Claude 3.5 Haiku предлагают улучшенные возможности в скорости, точности кодирования и использовании инструментов. Разработанный для превосходства в приложениях реального времени, он обеспечивает быстрые времена отклика, которые необходимы для динамических задач, таких как взаимодействие в чатах и мгновенные предложения по кодированию.

Это делает его особенно подходящим для сред, требующих как скорости, так и точности, таких как разработка программного обеспечения, боты службы поддержки и системы управления данными.

Эта модель в настоящее время указывает на Claude 3.5 Haiku (2024-10-22).

Входные данные:
77 ₽ / 1M
Текст
Изображения
Исходящие данные:
388 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
77 ₽
Исходящие токены за 1M:
388 ₽
Скопировано в буфер обмена!
Anthracite
16K

Это серия моделей, разработанных для воспроизведения качества прозы моделей Claude 3, в частности Sonnet и Opus.

Модель доработана на основе Qwen2.5 72B.

Входные данные:
291 ₽ / 1M
Текст
Исходящие данные:
486 ₽ / 1M
Текст
Контекст:
16K
Входящие токены за 1M:
291 ₽
Исходящие токены за 1M:
486 ₽
Скопировано в буфер обмена!
Qwen
33K

Qwen2.5 7B — это последняя серия больших языковых моделей Qwen. Qwen2.5 предлагает следующие улучшения по сравнению с Qwen2:

  • Значительно больше знаний и значительно улучшенные возможности в программировании и математике благодаря нашим специализированным экспертным моделям в этих областях.

  • Существенные улучшения в следовании инструкциям, генерации длинных текстов (более 8K токенов), понимании структурированных данных (например, таблиц) и генерации структурированных выходных данных, особенно JSON. Более устойчива к разнообразию системных подсказок, улучшая реализацию ролевых игр и установку условий для чат-ботов.

  • Поддержка длинного контекста до 128K токенов и возможность генерации до 8K токенов.

  • Многоязычная поддержка более чем 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Использование этой модели регулируется ЛИЦЕНЗИОННЫМ СОГЛАШЕНИЕМ Tongyi Qianwen.

Входные данные:
3 ₽ / 1M
Текст
Исходящие данные:
9 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
3 ₽
Исходящие токены за 1M:
9 ₽
Скопировано в буфер обмена!
NVIDIA
131K

Llama 3.1 Nemotron 70B от NVIDIA — это языковая модель, разработанная для генерации точных и полезных ответов. Используя архитектуру Llama 3.1 70B и обучение с подкреплением на основе обратной связи от человека (RLHF), она превосходит в автоматических тестах на согласованность. Эта модель адаптирована для приложений, требующих высокой точности в полезности и генерации ответов, и подходит для разнообразных пользовательских запросов в различных областях.

Использование этой модели регулируется Политикой допустимого использования Meta.

Входные данные:
116 ₽ / 1M
Текст
Исходящие данные:
116 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
116 ₽
Исходящие токены за 1M:
116 ₽
Скопировано в буфер обмена!
Inflection
8K

Inflection 3 Pi управляет чат-ботом Inflection’s Pi, включая предысторию, эмоциональный интеллект, продуктивность и безопасность. Он имеет доступ к последним новостям и отлично справляется в таких сценариях, как поддержка клиентов и ролевые игры.

Pi обучен отражать ваш тон и стиль, если вы используете больше эмодзи, то и Pi будет их использовать! Попробуйте экспериментировать с различными подсказками и стилями общения.

Входные данные:
243 ₽ / 1M
Текст
Исходящие данные:
972 ₽ / 1M
Текст
Контекст:
8K
Входящие токены за 1M:
243 ₽
Исходящие токены за 1M:
972 ₽
Скопировано в буфер обмена!
Inflection
8K

Inflection 3 Productivity оптимизирован для выполнения инструкций. Он лучше подходит для задач, требующих вывода в формате JSON или точного соблюдения предоставленных руководств. Имеет доступ к последним новостям.

Для эмоционального интеллекта, аналогичного Pi, см. Inflect 3 Pi.

Более подробную информацию см. в объявлении Inflection.

Входные данные:
243 ₽ / 1M
Текст
Исходящие данные:
972 ₽ / 1M
Текст
Контекст:
8K
Входящие токены за 1M:
243 ₽
Исходящие токены за 1M:
972 ₽
Скопировано в буфер обмена!
The Drummer
33K

Rocinante 12B разработан для увлекательного повествования и богатой прозы.

Ранние тестировщики сообщили: - Расширенный словарный запас с уникальными и выразительными словесными решениями - Повышенная креативность для ярких повествований - Полные приключений и захватывающие истории

Входные данные:
16 ₽ / 1M
Текст
Исходящие данные:
41 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
16 ₽
Исходящие токены за 1M:
41 ₽
Скопировано в буфер обмена!
Meta Llama
80K

Llama 3.2 3B — это многоязычная модель обработки естественного языка с 3 миллиардами параметров, оптимизированная для выполнения сложных задач, таких как генерация диалогов, рассуждение и суммаризация. Разработанная с использованием новейшей архитектуры трансформеров, она поддерживает восемь языков, включая английский, испанский и хинди, и может адаптироваться для дополнительных языков.

Обученная на 9 триллионах токенов, модель Llama 3.2 3B превосходно справляется с выполнением инструкций, сложными рассуждениями и использованием инструментов. Ее сбалансированная производительность делает ее идеальной для приложений, требующих точности и эффективности в генерации текста в многоязычной среде.

Нажмите здесь для оригинальной карточки модели.

Использование этой модели регулируется Политикой допустимого использования Meta.

Входные данные:
4 ₽ / 1M
Текст
Исходящие данные:
33 ₽ / 1M
Текст
Контекст:
80K
Входящие токены за 1M:
4 ₽
Исходящие токены за 1M:
33 ₽
Скопировано в буфер обмена!
Meta Llama
60K

Llama 3.2 1B — это языковая модель с одним миллиардом параметров, ориентированная на эффективное выполнение задач обработки естественного языка, таких как суммаризация, диалог и многоязычный анализ текста. Ее меньший размер позволяет эффективно работать в условиях ограниченных ресурсов, сохраняя при этом высокую производительность в выполнении задач.

Поддерживая восемь основных языков и возможность тонкой настройки для других, Llama 1.3B идеально подходит для бизнеса или разработчиков, ищущих легкие, но мощные AI-решения, способные работать в различных многоязычных средах без высокой вычислительной нагрузки, характерной для более крупных моделей.

Нажмите здесь, чтобы ознакомиться с оригинальной карточкой модели.

Использование этой модели регулируется Политикой допустимого использования Meta.

Входные данные:
2 ₽ / 1M
Текст
Исходящие данные:
19 ₽ / 1M
Текст
Контекст:
60K
Входящие токены за 1M:
2 ₽
Исходящие токены за 1M:
19 ₽
Скопировано в буфер обмена!
Meta Llama
131K

Llama 3.2 11B Vision — это мультимодальная модель с 11 миллиардами параметров, разработанная для выполнения задач, сочетающих визуальные и текстовые данные. Она превосходно справляется с такими задачами, как создание подписей к изображениям и визуальные вопросы-ответы, соединяя генерацию языка и визуальное мышление. Предварительно обученная на массивном наборе данных пар изображение-текст, она демонстрирует высокие результаты в сложном и точном анализе изображений.

Ее способность интегрировать визуальное понимание с обработкой языка делает ее идеальным решением для отраслей, требующих комплексных визуально-лингвистических AI-приложений, таких как создание контента, AI-управляемое обслуживание клиентов и исследования.

Нажмите здесь для оригинальной карточки модели.

Использование этой модели регулируется Политикой допустимого использования Meta.

Входные данные:
23 ₽ / 1M
Текст
Изображения
Исходящие данные:
23 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
23 ₽
Исходящие токены за 1M:
23 ₽
Скопировано в буфер обмена!
Qwen
33K

Qwen2.5 72B — это последняя серия крупных языковых моделей Qwen. Qwen2.5 предлагает следующие улучшения по сравнению с Qwen2:

  • Значительно больше знаний и существенно улучшенные возможности в области программирования и математики благодаря нашим специализированным экспертным моделям в этих областях.

  • Значительные улучшения в следовании инструкциям, генерации длинных текстов (более 8K токенов), понимании структурированных данных (например, таблиц) и генерации структурированных выходных данных, особенно JSON. Более устойчива к разнообразию системных подсказок, улучшая реализацию ролевых игр и установку условий для чат-ботов.

  • Поддержка длинного контекста до 128K токенов и возможность генерации до 8K токенов.

  • Многоязычная поддержка более чем 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Использование этой модели регулируется ЛИЦЕНЗИОННЫМ СОГЛАШЕНИЕМ Tongyi Qianwen.

Входные данные:
35 ₽ / 1M
Текст
Исходящие данные:
38 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
35 ₽
Исходящие токены за 1M:
38 ₽