Загрузка...

Каталог AI моделей и нейросетей: сравнение и цены

Каталог нейросетей с описанием возможностей и ценами в рублях. Сравните стоимость токенов и выберите лучшее решение.

Показать фильтр
Разработчики
Показать все (66)
Входные данные
Исходящие данные
Поддерживаемые параметры
Показать все (18)
Скопировано в буфер обмена!
Perplexity
128K

Sonar Reasoning Pro — это передовая модель рассуждений, работающая на базе DeepSeek R1 с использованием Chain of Thought (CoT). Разработанная для сложных сценариев использования, она поддерживает углубленные, многошаговые запросы с увеличенным окном контекста и может предоставлять больше ссылок на один поиск, что позволяет получать более полные и расширяемые ответы.Примечание: Цены на Sonar Pro включают в себя цены на поиск Perplexity. См. подробности здесь.

Входные данные:
201 ₽ / 1M
Текст
Изображения
Исходящие данные:
807 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
201 ₽
Исходящие токены за 1M:
807 ₽
Скопировано в буфер обмена!
Perplexity
200K

Для предприятий, ищущих более продвинутые возможности, API Sonar Pro может обрабатывать углубленные, многошаговые запросы с дополнительной расширяемостью, например, вдвое большее количество ссылок на один поиск по сравнению с Sonar в среднем. Кроме того, благодаря большему контекстному окну, он может обрабатывать более длинные и сложные поисковые запросы и последующие вопросы. Примечание: Цены на Sonar Pro включают цены на поиск Perplexity. См. подробности здесь.

Входные данные:
302 ₽ / 1M
Текст
Изображения
Исходящие данные:
1513 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
302 ₽
Исходящие токены за 1M:
1513 ₽
Скопировано в буфер обмена!
Perplexity
128K

Sonar Deep Research — это модель, ориентированная на исследования, разработанная для многоэтапного поиска, синтеза и рассуждений по сложным темам. Она автономно ищет, читает и оценивает источники, совершенствуя свой подход по мере сбора информации. Это позволяет создавать всесторонние отчеты в таких областях, как финансы, технологии, здравоохранение и текущие события.

Примечания по ценообразованию - Входные токены состоят из токенов запроса (запрос пользователя) + токенов цитирования (это обработанные токены из выполняемых поисков) - Deep Research выполняет множество поисков для проведения исчерпывающих исследований. Поиски оцениваются в $5 за 1000 поисков. - Рассуждение — это отдельный этап в Deep Research, так как оно проводит обширные автоматизированные рассуждения по всему материалу, собранному в ходе исследовательской фазы. Токены рассуждений здесь немного отличаются от CoTs в ответе — это токены, которые мы используем для рассуждений по исследовательскому материалу перед генерацией результатов через CoTs. Токены рассуждений оцениваются в $3 за 1 миллион токенов.

Входные данные:
201 ₽ / 1M
Текст
Исходящие данные:
807 ₽ / 1M
Текст
Контекст:
128K
Входящие токены за 1M:
201 ₽
Исходящие токены за 1M:
807 ₽
Скопировано в буфер обмена!
Qwen
33K

QwQ — это модель рассуждений серии Qwen. По сравнению с обычными моделями, настроенными на выполнение инструкций, QwQ, способная к мышлению и рассуждению, может значительно улучшить производительность в прикладных задачах, особенно в сложных проблемах. QwQ-32B — это модель рассуждений среднего размера, которая способна достигать конкурентоспособной производительности по сравнению с передовыми моделями рассуждений, такими как DeepSeek-R1, o1-mini.

Входные данные:
15 ₽ / 1M
Текст
Исходящие данные:
40 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
15 ₽
Исходящие токены за 1M:
40 ₽
Скопировано в буфер обмена!
Google
1M

Gemini 2.0 Flash Lite предлагает значительно более быстрое время до первого токена (TTFT) по сравнению с Gemini Flash 1.5, при этом сохраняя качество на уровне более крупных моделей, таких как Gemini Pro 1.5, и все это по чрезвычайно экономичным ценам на токены.

Входные данные:
7 ₽ / 1M
Текст
Изображения
Файл
Аудио
Видео
Исходящие данные:
30 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
7 ₽
Исходящие токены за 1M:
30 ₽
Скопировано в буфер обмена!
Yandex
33K

Флагманская генеративная нейросеть нового поколения от Яндекса, представленная в феврале 2025 года. Компания позиционирует её как модель мирового уровня

Входные данные:
1614 ₽ / 1M
Текст
Исходящие данные:
1614 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
1614 ₽
Исходящие токены за 1M:
1614 ₽
Скопировано в буфер обмена!
Yandex
33K

Это облегчённая версия языковой модели пятого поколения, ориентированная на быстрый отклик и массовые сценарии использования.

Входные данные:
269 ₽ / 1M
Текст
Исходящие данные:
269 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
269 ₽
Исходящие токены за 1M:
269 ₽
Скопировано в буфер обмена!
Anthropic
200K

Claude 3.7 Sonnet — это продвинутая языковая модель с улучшенными возможностями в области рассуждений, программирования и решения задач. Она вводит гибридный подход к рассуждениям, позволяя пользователям выбирать между быстрыми ответами и расширенной, пошаговой обработкой для сложных задач. Модель демонстрирует значительные улучшения в программировании, особенно в разработке фронтенда и обновлениях полного стека, и превосходит в агентных рабочих процессах, где она может автономно управлять многошаговыми процессами.

Claude 3.7 Sonnet сохраняет паритет производительности со своим предшественником в стандартном режиме, предлагая при этом расширенный режим рассуждений для повышения точности в математике, программировании и задачах, требующих следования инструкциям.

Входные данные:
302 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
1513 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
302 ₽
Исходящие токены за 1M:
1513 ₽
Скопировано в буфер обмена!
Anthropic
200K

Claude 3.7 Sonnet — это продвинутая модель обработки естественного языка с улучшенными возможностями в области логического мышления, программирования и решения задач. Она вводит гибридный подход к рассуждениям, позволяя пользователям выбирать между быстрыми ответами и расширенной, пошаговой обработкой для сложных задач. Модель демонстрирует заметные улучшения в программировании, особенно в разработке интерфейсов и обновлениях полного стека, и превосходит в агентных рабочих процессах, где она может автономно управлять многошаговыми процессами.

Claude 3.7 Sonnet сохраняет паритет производительности со своим предшественником в стандартном режиме, предлагая расширенный режим рассуждений для повышения точности в математических, программных и инструкционных задачах.

Входные данные:
302 ₽ / 1M
Текст
Изображения
Файл
Исходящие данные:
1513 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
302 ₽
Исходящие токены за 1M:
1513 ₽
Скопировано в буфер обмена!
Mistral AI
33K

Mistral Saba — это языковая модель с 24 миллиардами параметров, специально разработанная для Ближнего Востока и Южной Азии, обеспечивающая точные и контекстуально релевантные ответы при сохранении эффективной производительности. Обученная на тщательно отобранных региональных наборах данных, она поддерживает несколько языков индийского происхождения, включая тамильский и малаялам, а также арабский. Это делает её универсальным вариантом для различных региональных и многоязычных приложений. Подробнее читайте в блоге здесь

Входные данные:
20 ₽ / 1M
Текст
Исходящие данные:
60 ₽ / 1M
Текст
Контекст:
33K
Входящие токены за 1M:
20 ₽
Исходящие токены за 1M:
60 ₽
Скопировано в буфер обмена!
Meta Llama
131K

Llama Guard 3 — это предварительно обученная модель Llama-3.1-8B, доработанная для классификации безопасности контента. Подобно предыдущим версиям, она может использоваться для классификации контента как во входных данных LLM (классификация запросов), так и в ответах LLM (классификация ответов). Она функционирует как LLM — генерирует текст на выходе, указывающий, безопасен ли данный запрос или ответ, и если небезопасен, также перечисляет нарушенные категории контента.

Llama Guard 3 была настроена для защиты от стандартизированной таксономии опасностей MLCommons и разработана для поддержки возможностей Llama 3.1. В частности, она обеспечивает модерацию контента на 8 языках и была оптимизирована для обеспечения безопасности и защиты при вызовах инструментов поиска и интерпретатора кода.

Входные данные:
2 ₽ / 1M
Текст
Исходящие данные:
6 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
2 ₽
Исходящие токены за 1M:
6 ₽
Скопировано в буфер обмена!
OpenAI
200K

OpenAI o3-mini-high — это та же модель, что и o3-mini, но с установленным высоким уровнем усилий на рассуждение.

o3-mini — это экономичная языковая модель, оптимизированная для задач рассуждения в области STEM, особенно преуспевающая в науке, математике и программировании. Модель имеет три уровня регулируемых усилий на рассуждение и поддерживает ключевые возможности для разработчиков, включая вызов функций, структурированные выходные данные и потоковую передачу, хотя она не включает возможности обработки изображений.

Модель демонстрирует значительные улучшения по сравнению с предшественником: эксперты-тестировщики предпочитают её ответы в 56% случаев и отмечают снижение крупных ошибок на сложных вопросах на 39%. При средних настройках усилий на рассуждение o3-mini соответствует производительности более крупной модели o1 на сложных оценках рассуждений, таких как AIME и GPQA, при этом сохраняя более низкую задержку и стоимость.

Входные данные:
110 ₽ / 1M
Текст
Файл
Исходящие данные:
443 ₽ / 1M
Текст
Контекст:
200K
Входящие токены за 1M:
110 ₽
Исходящие токены за 1M:
443 ₽
Скопировано в буфер обмена!
Google
1M

Gemini Flash 2.0 обеспечивает значительно более быстрое время до первого токена (TTFT) по сравнению с Gemini Flash 1.5, при этом сохраняя качество на уровне более крупных моделей, таких как Gemini Pro 1.5. Он вводит значительные улучшения в мультимодальном понимании, возможностях кодирования, следовании сложным инструкциям и вызове функций. Эти достижения объединяются, чтобы предоставить более плавный и надежный агентный опыт.

Входные данные:
10 ₽ / 1M
Текст
Изображения
Файл
Аудио
Видео
Исходящие данные:
40 ₽ / 1M
Текст
Контекст:
1M
Входящие токены за 1M:
10 ₽
Исходящие токены за 1M:
40 ₽
Скопировано в буфер обмена!
Qwen
131K

Улучшенная большая визуальная языковая модель Qwen. Существенно модернизирована для детализированного распознавания и способностей к распознаванию текста, поддерживает ультравысокие разрешения до миллионов пикселей и экстремальные соотношения сторон для ввода изображений. Обеспечивает значительную производительность в широком диапазоне визуальных задач.

Входные данные:
13 ₽ / 1M
Текст
Изображения
Исходящие данные:
41 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
13 ₽
Исходящие токены за 1M:
41 ₽
Скопировано в буфер обмена!
Aion Labs
131K

Aion-1.0 — это мультимодельная система, разработанная для высокой производительности в различных задачах, включая рассуждение и кодирование. Она построена на базе DeepSeek-R1, дополненной дополнительными моделями и техниками, такими как Tree of Thoughts (ToT) и Mixture of Experts (MoE). Это самая мощная модель для рассуждений от Aion Lab.

Входные данные:
403 ₽ / 1M
Текст
Исходящие данные:
807 ₽ / 1M
Текст
Контекст:
131K
Входящие токены за 1M:
403 ₽
Исходящие токены за 1M:
807 ₽