Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (72)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
OpenAI
200K

OpenAI o3-mini-high — это та же модель, что и o3-mini, но с установленным высоким уровнем усилий на рассуждение.

o3-mini — это экономичная языковая модель, оптимизированная для задач рассуждения в области STEM, особенно преуспевающая в науке, математике и программировании. Модель имеет три уровня регулируемых усилий на рассуждение и поддерживает ключевые возможности для разработчиков, включая вызов функций, структурированные выходные данные и потоковую передачу, хотя она не включает возможности обработки изображений.

Модель демонстрирует значительные улучшения по сравнению с предшественником: эксперты-тестировщики предпочитают её ответы в 56% случаев и отмечают снижение крупных ошибок на сложных вопросах на 39%. При средних настройках усилий на рассуждение o3-mini соответствует производительности более крупной модели o1 на сложных оценках рассуждений, таких как AIME и GPQA, при этом сохраняя более низкую задержку и стоимость.

Входные данные:
106 ₽ / 1M
Текст
Файл
Исходящие данные:
427 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
106 ₽
Исходящие токены за 1M:
427 ₽
Скопировано в буфер обмена!
Google
1M

Gemini Flash 2.0 обеспечивает значительно более быстрое время до первого токена (TTFT) по сравнению с Gemini Flash 1.5, при этом сохраняя качество на уровне более крупных моделей, таких как Gemini Pro 1.5. Он вводит значительные улучшения в мультимодальном понимании, возможностях кодирования, следовании сложным инструкциям и вызове функций. Эти достижения объединяются, чтобы предоставить более плавный и надежный агентный опыт.

Входные данные:
9 ₽ / 1M
Текст
Изображения
Файл
Аудио
Видео
Исходящие данные:
38 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
9 ₽
Исходящие токены за 1M:
38 ₽
Скопировано в буфер обмена!
Qwen
131K

Улучшенная большая визуальная языковая модель Qwen. Существенно модернизирована для детализированного распознавания и способностей к распознаванию текста, поддерживает ультравысокие разрешения до миллионов пикселей и экстремальные соотношения сторон для ввода изображений. Обеспечивает значительную производительность в широком диапазоне визуальных задач.

Входные данные:
13 ₽ / 1M
Текст
Изображения
Исходящие данные:
39 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
13 ₽
Исходящие токены за 1M:
39 ₽
Скопировано в буфер обмена!
Aion Labs
131K

Aion-1.0 — это мультимодельная система, разработанная для высокой производительности в различных задачах, включая рассуждение и кодирование. Она построена на базе DeepSeek-R1, дополненной дополнительными моделями и техниками, такими как Tree of Thoughts (ToT) и Mixture of Experts (MoE). Это самая мощная модель для рассуждений от Aion Lab.

Входные данные:
388 ₽ / 1M
Текст
Исходящие данные:
777 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
388 ₽
Исходящие токены за 1M:
777 ₽
Скопировано в буфер обмена!
Aion Labs
131K

Модель Aion-1.0-Mini с 32 миллиардами параметров является упрощенной версией модели DeepSeek-R1, разработанной для высокой производительности в областях, требующих логического мышления, таких как математика, программирование и логика. Это модифицированный вариант модели FuseAI, который превосходит R1-Distill-Qwen-32B и R1-Distill-Llama-70B, с результатами тестов, доступными на странице Hugging Face, которые были независимо воспроизведены для проверки.

Входные данные:
68 ₽ / 1M
Текст
Исходящие данные:
136 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
68 ₽
Исходящие токены за 1M:
136 ₽
Скопировано в буфер обмена!
Aion Labs
33K

Aion-RP-Llama-3.1-8B занимает первое место в части оценки персонажей в бенчмарке RPBench-Auto, который является специфическим для ролевых игр вариантом Arena-Hard-Auto, где LLM оценивают ответы друг друга. Это базовая модель с тонкой настройкой, а не модель с инструкциями, разработанная для создания более естественного и разнообразного письма.

Входные данные:
77 ₽ / 1M
Текст
Исходящие данные:
155 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
77 ₽
Исходящие токены за 1M:
155 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen VL Max — это модель визуального понимания с длиной контекста в 7500 токенов. Она превосходно справляется с обеспечением оптимальной производительности для более широкого спектра сложных задач.

Входные данные:
50 ₽ / 1M
Текст
Изображения
Исходящие данные:
202 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
50 ₽
Исходящие токены за 1M:
202 ₽
Скопировано в буфер обмена!
Qwen
131K

Qwen-Turbo, основанный на Qwen2.5, является моделью с контекстом 1M, обеспечивающей высокую скорость и низкую стоимость, подходящей для простых задач.

Входные данные:
3 ₽ / 1M
Текст
Исходящие данные:
12 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
3 ₽
Исходящие токены за 1M:
12 ₽
Скопировано в буфер обмена!
Qwen
32K

Qwen2.5-VL хорошо распознает распространенные объекты, такие как цветы, птицы, рыбы и насекомые. Он также обладает высокой способностью к анализу текстов, диаграмм, иконок, графики и макетов в изображениях.

Входные данные:
24 ₽ / 1M
Текст
Изображения
Исходящие данные:
72 ₽ / 1M
Текст
Контекст:
32K
Входящие токены за 1M:
24 ₽
Исходящие токены за 1M:
72 ₽
Скопировано в буфер обмена!
Qwen
1M

Qwen-Plus, основанная на базовой модели Qwen2.5, представляет собой модель с контекстом 131K, которая сочетает в себе сбалансированную производительность, скорость и стоимость.

Входные данные:
25 ₽ / 1M
Текст
Исходящие данные:
75 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
25 ₽
Исходящие токены за 1M:
75 ₽
Скопировано в буфер обмена!
Qwen
33K

Qwen-Max, основанный на Qwen2.5, обеспечивает наилучшую производительность вывода среди моделей Qwen, особенно для сложных многоэтапных задач. Это крупномасштабная модель MoE, которая была предварительно обучена на более чем 20 триллионах токенов и дополнительно дообучена с использованием тщательно подобранных методов контролируемой тонкой настройки (SFT) и обучения с подкреплением на основе обратной связи от человека (RLHF). Количество параметров неизвестно.

Входные данные:
101 ₽ / 1M
Текст
Исходящие данные:
404 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
101 ₽
Исходящие токены за 1M:
404 ₽
Скопировано в буфер обмена!
OpenAI
200K

OpenAI o3-mini — это экономичная языковая модель, оптимизированная для задач рассуждения в области STEM, особенно преуспевающая в науке, математике и программировании.

Эта модель поддерживает параметр reasoning_effort, который можно установить на “high”, “medium” или “low” для управления временем размышления модели. По умолчанию установлено значение “medium”.

Модель имеет три уровня усилий для рассуждений и поддерживает ключевые возможности для разработчиков, включая вызов функций, структурированные выводы и потоковую передачу, хотя не включает возможности обработки изображений.

Модель демонстрирует значительные улучшения по сравнению с предшественником: эксперты-тестировщики предпочитают её ответы в 56% случаев и отмечают снижение крупных ошибок на 39% при сложных вопросах. При средних настройках усилий для рассуждений o3-mini соответствует производительности более крупной модели o1 на сложных оценках рассуждений, таких как AIME и GPQA, при этом сохраняя более низкую задержку и стоимость.

Входные данные:
106 ₽ / 1M
Текст
Файл
Исходящие данные:
427 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
106 ₽
Исходящие токены за 1M:
427 ₽
Скопировано в буфер обмена!
Mistral AI
33K

Mistral Small 3 — это языковая модель с 24 миллиардами параметров, оптимизированная для работы с низкой задержкой в рамках общих задач ИИ. Выпущенная под лицензией Apache 2.0, она включает как предварительно обученные, так и настроенные на выполнение инструкций версии, предназначенные для эффективного локального развертывания.

Модель достигает 81% точности на бенчмарке MMLU и показывает конкурентоспособные результаты с более крупными моделями, такими как Llama 3.3 70B и Qwen 32B, при этом работая в три раза быстрее на эквивалентном оборудовании.

Входные данные:
4 ₽ / 1M
Текст
Исходящие данные:
7 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
4 ₽
Исходящие токены за 1M:
7 ₽
Скопировано в буфер обмена!
DeepSeek
33K

DeepSeek R1 Distill Qwen 32B — это дистиллированная крупная языковая модель, основанная на Qwen 2.5 32B, использующая выходные данные от DeepSeek R1. Она превосходит o1-mini от OpenAI по различным критериям, достигая новых передовых результатов для плотных моделей.

Другие результаты тестов включают:

  • AIME 2024 pass@1: 72.6
  • MATH-500 pass@1: 94.3
  • Рейтинг CodeForces: 1691

Модель использует тонкую настройку на основе выходных данных DeepSeek R1, что позволяет ей демонстрировать конкурентоспособную производительность, сопоставимую с более крупными передовыми моделями.

Входные данные:
28 ₽ / 1M
Текст
Исходящие данные:
28 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
28 ₽
Исходящие токены за 1M:
28 ₽
Скопировано в буфер обмена!
Perplexity
127K

Sonar легкий, доступный по цене, быстрый и простой в использовании — теперь с функцией цитирования и возможностью настройки источников. Он разработан для компаний, стремящихся интегрировать легкие функции вопросов и ответов, оптимизированные для скорости.

Входные данные:
97 ₽ / 1M
Текст
Изображения
Исходящие данные:
97 ₽ / 1M
Текст
Контекст:
127K
Входящие токены за 1M:
97 ₽
Исходящие токены за 1M:
97 ₽