Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (66)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Aion Labs
131K

Модель Aion-1.0-Mini с 32 миллиардами параметров является упрощенной версией модели DeepSeek-R1, разработанной для высокой производительности в областях, требующих логического мышления, таких как математика, программирование и логика. Это модифицированный вариант модели FuseAI, который превосходит R1-Distill-Qwen-32B и R1-Distill-Llama-70B, с результатами тестов, доступными на странице Hugging Face, которые были независимо воспроизведены для проверки.

Входные данные:
70 ₽ / 1M
Текст
Исходящие данные:
141 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
70 ₽
Исходящие токены за 1M:
141 ₽
Скопировано в буфер обмена!
Aion Labs
33K

Aion-RP-Llama-3.1-8B занимает первое место в части оценки персонажей в бенчмарке RPBench-Auto, который является специфическим для ролевых игр вариантом Arena-Hard-Auto, где LLM оценивают ответы друг друга. Это базовая модель с тонкой настройкой, а не модель с инструкциями, разработанная для создания более естественного и разнообразного письма.

Входные данные:
80 ₽ / 1M
Текст
Исходящие данные:
161 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
80 ₽
Исходящие токены за 1M:
161 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen VL Max — это модель визуального понимания с длиной контекста в 7500 токенов. Она превосходно справляется с обеспечением оптимальной производительности для более широкого спектра сложных задач.

Входные данные:
80 ₽ / 1M
Текст
Изображения
Исходящие данные:
322 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
80 ₽
Исходящие токены за 1M:
322 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen-Turbo, основанный на Qwen2.5, является моделью с контекстом 1M, обеспечивающей высокую скорость и низкую стоимость, подходящей для простых задач.

Входные данные:
3 ₽ / 1M
Текст
Исходящие данные:
13 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
3 ₽
Исходящие токены за 1M:
13 ₽
Скопировано в буфер обмена!
Qwen
33K

Qwen2.5-VL хорошо распознает распространенные объекты, такие как цветы, птицы, рыбы и насекомые. Он также обладает высокой способностью к анализу текстов, диаграмм, иконок, графики и макетов в изображениях.

Входные данные:
80 ₽ / 1M
Текст
Изображения
Исходящие данные:
80 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
80 ₽
Исходящие токены за 1M:
80 ₽
Скопировано в буфер обмена!
Qwen
1M

Qwen-Plus, основанная на базовой модели Qwen2.5, представляет собой модель с контекстом 131K, которая сочетает в себе сбалансированную производительность, скорость и стоимость.

Входные данные:
40 ₽ / 1M
Текст
Исходящие данные:
121 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
40 ₽
Исходящие токены за 1M:
121 ₽
Скопировано в буфер обмена!
Qwen
33K

Qwen-Max, основанный на Qwen2.5, обеспечивает наилучшую производительность вывода среди моделей Qwen, особенно для сложных многоэтапных задач. Это крупномасштабная модель MoE, которая была предварительно обучена на более чем 20 триллионах токенов и дополнительно дообучена с использованием тщательно подобранных методов контролируемой тонкой настройки (SFT) и обучения с подкреплением на основе обратной связи от человека (RLHF). Количество параметров неизвестно.

Входные данные:
104 ₽ / 1M
Текст
Исходящие данные:
419 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
104 ₽
Исходящие токены за 1M:
419 ₽
Скопировано в буфер обмена!
OpenAI
200K

OpenAI o3-mini — это экономичная языковая модель, оптимизированная для задач рассуждения в области STEM, особенно преуспевающая в науке, математике и программировании.

Эта модель поддерживает параметр reasoning_effort, который можно установить на “high”, “medium” или “low” для управления временем размышления модели. По умолчанию установлено значение “medium”.

Модель имеет три уровня усилий для рассуждений и поддерживает ключевые возможности для разработчиков, включая вызов функций, структурированные выводы и потоковую передачу, хотя не включает возможности обработки изображений.

Модель демонстрирует значительные улучшения по сравнению с предшественником: эксперты-тестировщики предпочитают её ответы в 56% случаев и отмечают снижение крупных ошибок на 39% при сложных вопросах. При средних настройках усилий для рассуждений o3-mini соответствует производительности более крупной модели o1 на сложных оценках рассуждений, таких как AIME и GPQA, при этом сохраняя более низкую задержку и стоимость.

Входные данные:
110 ₽ / 1M
Текст
Файл
Исходящие данные:
443 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
110 ₽
Исходящие токены за 1M:
443 ₽
Скопировано в буфер обмена!
Mistral AI
33K

Mistral Small 3 — это языковая модель с 24 миллиардами параметров, оптимизированная для работы с низкой задержкой в рамках общих задач ИИ. Выпущенная под лицензией Apache 2.0, она включает как предварительно обученные, так и настроенные на выполнение инструкций версии, предназначенные для эффективного локального развертывания.

Модель достигает 81% точности на бенчмарке MMLU и показывает конкурентоспособные результаты с более крупными моделями, такими как Llama 3.3 70B и Qwen 32B, при этом работая в три раза быстрее на эквивалентном оборудовании.

Входные данные:
5 ₽ / 1M
Текст
Исходящие данные:
8 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
5 ₽
Исходящие токены за 1M:
8 ₽
Скопировано в буфер обмена!
DeepSeek
33K

DeepSeek R1 Distill Qwen 32B — это дистиллированная крупная языковая модель, основанная на Qwen 2.5 32B, использующая выходные данные от DeepSeek R1. Она превосходит o1-mini от OpenAI по различным критериям, достигая новых передовых результатов для плотных моделей.

Другие результаты тестов включают:

  • AIME 2024 pass@1: 72.6
  • MATH-500 pass@1: 94.3
  • Рейтинг CodeForces: 1691

Модель использует тонкую настройку на основе выходных данных DeepSeek R1, что позволяет ей демонстрировать конкурентоспособную производительность, сопоставимую с более крупными передовыми моделями.

Входные данные:
29 ₽ / 1M
Текст
Исходящие данные:
29 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
29 ₽
Исходящие токены за 1M:
29 ₽
Скопировано в буфер обмена!
Perplexity
127K

Sonar легкий, доступный по цене, быстрый и простой в использовании — теперь с функцией цитирования и возможностью настройки источников. Он разработан для компаний, стремящихся интегрировать легкие функции вопросов и ответов, оптимизированные для скорости.

Входные данные:
100 ₽ / 1M
Текст
Изображения
Исходящие данные:
100 ₽ / 1M
Текст
Контекст:
127K
Входящие токены за 1M:
100 ₽
Исходящие токены за 1M:
100 ₽
Скопировано в буфер обмена!
DeepSeek
131K

DeepSeek R1 Distill Llama 70B — это дистиллированная крупная языковая модель, основанная на Llama-3.3-70B-Instruct, с использованием выводов из DeepSeek R1. Модель сочетает в себе передовые методы дистилляции для достижения высокой производительности по нескольким бенчмаркам, включая:

  • AIME 2024 pass@1: 70.0
  • MATH-500 pass@1: 94.5
  • Рейтинг CodeForces: 1633

Модель использует тонкую настройку на основе выводов DeepSeek R1, что позволяет ей демонстрировать конкурентоспособную производительность, сопоставимую с более крупными передовыми моделями.

Входные данные:
70 ₽ / 1M
Текст
Исходящие данные:
80 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
70 ₽
Исходящие токены за 1M:
80 ₽
Скопировано в буфер обмена!
DeepSeek
64K

DeepSeek R1 здесь: производительность на уровне OpenAI o1, но с открытым исходным кодом и полностью открытыми токенами рассуждений. Размер модели составляет 671 миллиард параметров, из которых 37 миллиардов активны в процессе вывода.

Полностью открытая модель и технический отчет.

Лицензия MIT: распространяйте и коммерциализируйте свободно!

Входные данные:
70 ₽ / 1M
Текст
Исходящие данные:
252 ₽ / 1M
Текст
Контекст:
64K
Входящие токены за 1M:
70 ₽
Исходящие токены за 1M:
252 ₽
Скопировано в буфер обмена!
Minimax
1M

MiniMax-01 сочетает в себе MiniMax-Text-01 для генерации текста и MiniMax-VL-01 для понимания изображений. Он содержит 456 миллиардов параметров, из которых 45,9 миллиарда активируются при каждом выводе, и может обрабатывать контекст до 4 миллионов токенов.

Текстовая модель использует гибридную архитектуру, которая сочетает Lightning Attention, Softmax Attention и Mixture-of-Experts (MoE). Модель изображения использует структуру «ViT-MLP-LLM» и обучена на основе текстовой модели.

Входные данные:
20 ₽ / 1M
Текст
Изображения
Исходящие данные:
110 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
20 ₽
Исходящие токены за 1M:
110 ₽
Скопировано в буфер обмена!
Microsoft
16K

Phi-4 от Microsoft Research разработан для эффективного выполнения сложных задач, требующих рассуждений, и может работать в условиях ограниченной памяти или когда необходимы быстрые ответы.

С 14 миллиардами параметров он был обучен на смеси высококачественных синтетических наборов данных, данных с отобранных веб-сайтов и академических материалов. Он прошел тщательную доработку для точного выполнения инструкций и поддержания высоких стандартов безопасности. Лучше всего работает с вводом на английском языке.

Для получения дополнительной информации, пожалуйста, ознакомьтесь с Phi-4 Technical Report.

Входные данные:
6 ₽ / 1M
Текст
Исходящие данные:
14 ₽ / 1M
Текст
Контекст:
16K
Входящие токены за 1M:
6 ₽
Исходящие токены за 1M:
14 ₽