Dolphin 2.6 Mixtral 8x7B 🐬 Проверьте подробную информацию и цены на модели ИИ

Контекст Длина 32,768 токенов, cognitivecomputations от предоставлено

32,768
Контекстные токены
$0.00
Цена промпта
$0.00
Цена вывода
0/16
Поддержка Функций

Обзор модели

This is a 16k context fine-tune of [Mixtral-8x7b](/models/mistralai/mixtral-8x7b). It excels in coding tasks due to extensive training with coding data and is known for its obedience, although it lacks DPO tuning. The model is uncensored and is stripped of alignment and bias. It requires an external alignment layer for ethical use. Users are cautioned to use this highly compliant model responsibly, as detailed in a blog post about uncensored models at [erichartford.com/uncensored-models](https://erichartford.com/uncensored-models). #moe #uncensored

Основная информация

Разработчик
cognitivecomputations
Серия моделей
Mistral
Дата выпуска
2023-12-21
Длина Контекста
32,768 токенов
Вариант
standard

Информация о Ценах

Токены Промпта
$0.00 / 1M токены
Токены завершения
$0.00 / 1M токены

Поддерживаемые Функции

Не поддерживается (16)

Ввод Изображения
Top K
Сид
Штраф за Частоту
Штраф за присутствие
Штраф за Повторение
Формат Ответа
Min P
Logit-смещение
Использование Инструментов
Logprobs
Top Logprobs
Структурированные выходы
Рассуждение
Параметры веб-поиска
Top A

Статистика фактического использования

Нет данных о недавнем использовании.

Модели того же автора (cognitivecomputations)

Dolphin3.0 R1 Mistral 24B (free)
32,768 токенов
Бесплатно
Dolphin3.0 Mistral 24B (free)
32,768 токенов
Бесплатно
Dolphin Llama 3 70B 🐬
8,192 токенов
$0.00 / $0.00
Dolphin 2.9.2 Mixtral 8x22B 🐬
16,000 токенов
$0.90 / $0.90

Модели схожего ценового диапазона

Jamba 1.5 Large
ai21
256,000 токенов
$0.00 / $0.00
Deepseek R1 0528 Qwen3 8B (free)
deepseek
131,072 токенов
$0.00 / $0.00
Gemma 1 2B
google
8,192 токенов
$0.00 / $0.00
R1 0528 (free)
deepseek
163,840 токенов
$0.00 / $0.00
Sarvam-M (free)
sarvamai
32,768 токенов
$0.00 / $0.00