R1 Distill Qwen 32B (free) Проверьте подробную информацию и цены на модели ИИ
Контекст Длина 16,000 токенов, deepseek от предоставлено
16,000
Контекстные токены
Бесплатно
Цена промпта
Бесплатно
Цена вывода
1/16
Поддержка Функций
Обзор модели
DeepSeek R1 Distill Qwen 32B is a distilled large language model based on [Qwen 2.5 32B](https://huggingface.co/Qwen/Qwen2.5-32B), using outputs from [DeepSeek R1](/deepseek/deepseek-r1). It outperforms OpenAI's o1-mini across various benchmarks, achieving new state-of-the-art results for dense models.\n\nOther benchmark results include:\n\n- AIME 2024 pass@1: 72.6\n- MATH-500 pass@1: 94.3\n- CodeForces Rating: 1691\n\nThe model leverages fine-tuning from DeepSeek R1's outputs, enabling competitive performance comparable to larger frontier models.
Основная информация
Разработчик
deepseek
Серия моделей
Qwen
Дата выпуска
2025-01-29
Длина Контекста
16,000 токенов
Максимум токенов завершения
16,000 токенов
Вариант
free
Информация о Ценах
Эта модель бесплатна для использования
Политика данных
Поддерживаемые Функции
Поддерживается (1)
Рассуждение
Не поддерживается (15)
Ввод Изображения
Top K
Сид
Штраф за Частоту
Штраф за присутствие
Штраф за Повторение
Формат Ответа
Min P
Logit-смещение
Использование Инструментов
Logprobs
Top Logprobs
Структурированные выходы
Параметры веб-поиска
Top A
Другие Варианты
Статистика фактического использования
#140
Из 346 моделей всего
1.4B
Общее количество токенов за последние 30 дней
47.85M
Среднесуточное использование
81%
Изменение недельного использования