Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (66)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Cohere
128K

command-r-08-2024 — это обновление модели Command R с улучшенной производительностью для многоязычной генерации с дополнением извлечением (RAG) и использования инструментов. В более широком смысле, она лучше справляется с математикой, кодом и рассуждениями и является конкурентоспособной с предыдущей версией более крупной модели Command R+.

Прочитайте пост о запуске здесь.

Использование этой модели регулируется Политикой использования и Соглашением SaaS компании Cohere.

Входные данные:
15 ₽ / 1M
Текст
Исходящие данные:
60 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
15 ₽
Исходящие токены за 1M:
60 ₽
Скопировано в буфер обмена!
Qwen
33K

Qwen2.5 VL 7B — это мультимодальная LLM от команды Qwen с следующими ключевыми улучшениями:

  • Передовое понимание изображений различного разрешения и соотношения сторон: Qwen2.5-VL достигает передовых результатов в тестах на визуальное понимание, включая MathVista, DocVQA, RealWorldQA, MTVQA и другие.

  • Понимание видео длительностью более 20 минут: Qwen2.5-VL может понимать видео продолжительностью более 20 минут для высококачественного ответа на вопросы, основанные на видео, диалогов, создания контента и т.д.

  • Агент, который может управлять вашими мобильными устройствами, роботами и т.д.: благодаря способностям к сложным рассуждениям и принятию решений, Qwen2.5-VL может быть интегрирован с устройствами, такими как мобильные телефоны, роботы и т.д., для автоматической работы на основе визуальной среды и текстовых инструкций.

  • Поддержка нескольких языков: для обслуживания глобальных пользователей, помимо английского и китайского, Qwen2.5-VL теперь поддерживает понимание текстов на разных языках внутри изображений, включая большинство европейских языков, японский, корейский, арабский, вьетнамский и другие.

Для получения более подробной информации смотрите этот пост в блоге и репозиторий на GitHub.

Использование этой модели регулируется ЛИЦЕНЗИОННЫМ СОГЛАШЕНИЕМ Tongyi Qianwen.

Входные данные:
20 ₽ / 1M
Текст
Изображения
Исходящие данные:
20 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
20 ₽
Исходящие токены за 1M:
20 ₽
Скопировано в буфер обмена!
Sao10k
33K

Euryale L3.1 70B v2.2 — это модель, ориентированная на творческую ролевую игру от Sao10k. Она является преемником Euryale L3 70B v2.1.

Входные данные:
65 ₽ / 1M
Текст
Исходящие данные:
75 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
65 ₽
Исходящие токены за 1M:
75 ₽
Скопировано в буфер обмена!
Nous Research
66K

Hermes 3 — это универсальная языковая модель с множеством улучшений по сравнению с Hermes 2, включая расширенные агентные возможности, значительно лучшее ролевое взаимодействие, рассуждение, многократные диалоги, согласованность в длинных контекстах и улучшения по всем направлениям.

Hermes 3 70B является конкурентоспособной, если не превосходящей, доработкой Llama-3.1 70B foundation model, сосредоточенной на согласовании LLM с пользователем, с мощными возможностями управления и контроля, предоставленными конечному пользователю.

Серия Hermes 3 развивает и расширяет набор возможностей Hermes 2, включая более мощные и надежные возможности вызова функций и структурированного вывода, универсальные возможности помощника и улучшенные навыки генерации кода.

Входные данные:
30 ₽ / 1M
Текст
Исходящие данные:
30 ₽ / 1M
Текст
Контекст:
66K
Входящие токены за 1M:
30 ₽
Исходящие токены за 1M:
30 ₽
Скопировано в буфер обмена!
Nous Research
131K

Hermes 3 — это универсальная языковая модель с множеством улучшений по сравнению с Hermes 2, включая продвинутые агентные возможности, значительно лучшее ролевое взаимодействие, рассуждение, многократные диалоги, согласованность в длинных контекстах и улучшения по всем направлениям.

Hermes 3 405B — это модель на передовом уровне, с полной настройкой параметров на основе модели Llama-3.1 405B, сосредоточенная на выравнивании LLM с пользователем, с мощными возможностями управления и контроля, предоставляемыми конечному пользователю.

Серия Hermes 3 развивает и расширяет набор возможностей Hermes 2, включая более мощные и надежные функции вызова и возможности структурированного вывода, универсальные возможности помощника и улучшенные навыки генерации кода.

Hermes 3 конкурентоспособен, если не превосходит, модели Llama-3.1 Instruct по общим возможностям, с различными сильными и слабыми сторонами, присущими каждой из них.

Входные данные:
100 ₽ / 1M
Текст
Исходящие данные:
100 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
100 ₽
Исходящие токены за 1M:
100 ₽
Скопировано в буфер обмена!
Sao10k
8K

Lunaris 8B — это универсальная модель для общих задач и ролевых игр, основанная на Llama 3. Это стратегическое объединение нескольких моделей, разработанное для баланса креативности с улучшенной логикой и общими знаниями.

Созданная Sao10k, эта модель стремится предложить улучшенный опыт по сравнению с Stheno v3.2, с повышенной креативностью и логическим мышлением.

Для достижения наилучших результатов используйте с контекстным шаблоном Llama 3 Instruct, температурой 1.4 и min_p 0.1.

Входные данные:
4 ₽ / 1M
Текст
Исходящие данные:
5 ₽ / 1M
Текст
Контекст:
8K
Входящие токены за 1M:
4 ₽
Исходящие токены за 1M:
5 ₽
Скопировано в буфер обмена!
OpenAI
128K

Версия GPT-4o от 2024-08-06 предлагает улучшенную производительность в структурированных выводах с возможностью предоставления JSON-схемы в формате ответа.

GPT-4o (“o” означает “omni”) — это последняя модель ИИ от OpenAI, поддерживающая как текстовые, так и визуальные входные данные с текстовыми выходами. Она сохраняет уровень интеллекта GPT-4 Turbo, при этом работая в два раза быстрее и на 50% более экономично. GPT-4o также предлагает улучшенную производительность при обработке неанглоязычных языков и расширенные визуальные возможности.

Для сравнения с другими моделями она кратко называлась “im-also-a-good-gpt2-chatbot”.

Входные данные:
252 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
1008 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
252 ₽
Исходящие токены за 1M:
1008 ₽
Скопировано в буфер обмена!
Meta Llama
33K

Последняя модель от Meta (Llama 3.1) была выпущена в различных размерах и вариантах. Это базовая версия 405B с предварительной подготовкой.

Она показала высокие результаты по сравнению с ведущими закрытыми моделями в оценках, проводимых людьми.

Чтобы узнать больше о выпуске модели, нажмите здесь. Использование этой модели регулируется Политикой допустимого использования Meta.

Входные данные:
403 ₽ / 1M
Текст
Исходящие данные:
403 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
403 ₽
Исходящие токены за 1M:
403 ₽
Скопировано в буфер обмена!
Meta Llama
16K

Последняя модель от Meta (Llama 3.1) была выпущена в различных размерах и вариантах. Эта версия с 8 миллиардами параметров, настроенная для инструкций, быстрая и эффективная.

Она продемонстрировала высокую производительность по сравнению с ведущими закрытыми моделями в оценках, проводимых людьми.

Чтобы узнать больше о выпуске модели, нажмите здесь. Использование этой модели регулируется Политикой допустимого использования Meta.

Входные данные:
2 ₽ / 1M
Текст
Исходящие данные:
5 ₽ / 1M
Текст
Контекст:
16K
Входящие токены за 1M:
2 ₽
Исходящие токены за 1M:
5 ₽
Скопировано в буфер обмена!
Meta Llama
131K

Последняя версия модели от Meta (Llama 3.1) была выпущена в различных размерах и вариантах. Эта версия с 70 миллиардами параметров, настроенная для инструкций, оптимизирована для высококачественных диалоговых сценариев.

Она продемонстрировала высокую производительность по сравнению с ведущими закрытыми моделями в оценках, проводимых людьми.

Чтобы узнать больше о выпуске модели, нажмите здесь. Использование этой модели регулируется Политикой допустимого использования Meta.

Входные данные:
40 ₽ / 1M
Текст
Исходящие данные:
40 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
40 ₽
Исходящие токены за 1M:
40 ₽
Скопировано в буфер обмена!
Meta Llama
131K

Долгожданный класс 400B Llama3 уже здесь! С контекстом в 128k и впечатляющими оценочными показателями, команда Meta AI продолжает расширять границы открытых LLM.

Последний класс моделей от Meta (Llama 3.1) был выпущен в различных размерах и вариантах. Эта версия 405B, настроенная для инструкций, оптимизирована для высококачественного использования в диалогах.

Она продемонстрировала высокую производительность по сравнению с ведущими закрытыми моделями, включая GPT-4o и Claude 3.5 Sonnet, в оценках.

Чтобы узнать больше о выпуске модели, нажмите здесь. Использование этой модели регулируется Политикой допустимого использования Meta.

Входные данные:
403 ₽ / 1M
Текст
Исходящие данные:
403 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
403 ₽
Исходящие токены за 1M:
403 ₽
Скопировано в буфер обмена!
Mistral AI
131K

Модель с 12 миллиардами параметров и длиной контекста в 128 тысяч токенов, созданная Mistral в сотрудничестве с NVIDIA.

Модель является многоязычной и поддерживает английский, французский, немецкий, испанский, итальянский, португальский, китайский, японский, корейский, арабский и хинди.

Она поддерживает вызов функций и выпущена под лицензией Apache 2.0.

Входные данные:
2 ₽ / 1M
Текст
Исходящие данные:
4 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
2 ₽
Исходящие токены за 1M:
4 ₽
Скопировано в буфер обмена!
OpenAI
128K

GPT-4o mini — это новейшая модель OpenAI после GPT-4 Omni, поддерживающая как текстовые, так и графические входные данные с текстовыми выходами.

Будучи самой продвинутой малой моделью, она в несколько раз более доступна по цене, чем другие недавние передовые модели, и более чем на 60% дешевле, чем GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта, оставаясь при этом значительно более экономичной.

GPT-4o mini достигает 82% на MMLU и в настоящее время занимает более высокие позиции, чем GPT-4, по предпочтениям в чатах на общих рейтингах.

Ознакомьтесь с анонсом запуска, чтобы узнать больше.

multimodal

Входные данные:
15 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
60 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
15 ₽
Исходящие токены за 1M:
60 ₽
Скопировано в буфер обмена!
OpenAI
128K

GPT-4o mini — это новейшая модель OpenAI после GPT-4 Omni, поддерживающая как текстовые, так и графические входные данные с текстовыми выходами.

Будучи самой продвинутой малой моделью, она в несколько раз более доступна по цене, чем другие недавние передовые модели, и более чем на 60% дешевле, чем GPT-3.5 Turbo. Она сохраняет уровень SOTA интеллекта, оставаясь при этом значительно более экономичной.

GPT-4o mini достигает 82% на MMLU и в настоящее время занимает более высокие позиции, чем GPT-4, в предпочтениях чата на общих лидербордах.

Ознакомьтесь с анонсом запуска, чтобы узнать больше.

multimodal

Входные данные:
15 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
60 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
15 ₽
Исходящие токены за 1M:
60 ₽
Скопировано в буфер обмена!
Google
8K

Gemma 2 27B от Google — это открытая модель, созданная на основе тех же исследований и технологий, которые использовались для создания моделей Gemini.

Модели Gemma хорошо подходят для различных задач генерации текста, включая ответы на вопросы, резюмирование и рассуждение.

Более подробную информацию можно найти в анонсе запуска. Использование Gemma регулируется Условиями использования Gemma от Google.

Входные данные:
65 ₽ / 1M
Текст
Исходящие данные:
65 ₽ / 1M
Текст
Контекст:
8K
Входящие токены за 1M:
65 ₽
Исходящие токены за 1M:
65 ₽