Dolphin 2.6 Mixtral 8x7B 🐬 AI 모델의 상세 정보와 가격을 확인하세요
컨텍스트 길이 32,768 토큰, cognitivecomputations 에서 제공
32,768
컨텍스트 토큰
$0.00
프롬프트 가격
$0.00
출력 가격
0/16
기능 지원
모델 소개
This is a 16k context fine-tune of [Mixtral-8x7b](/models/mistralai/mixtral-8x7b). It excels in coding tasks due to extensive training with coding data and is known for its obedience, although it lacks DPO tuning. The model is uncensored and is stripped of alignment and bias. It requires an external alignment layer for ethical use. Users are cautioned to use this highly compliant model responsibly, as detailed in a blog post about uncensored models at [erichartford.com/uncensored-models](https://erichartford.com/uncensored-models). #moe #uncensored
기본 정보
개발사
cognitivecomputations
모델 시리즈
Mistral
출시일
2023-12-21
컨텍스트 길이
32,768 토큰
변형
standard
가격 정보
프롬프트 토큰
$0.00 / 1M 토큰
완료 토큰
$0.00 / 1M 토큰
지원 기능
미지원 (16)
이미지 입력
Top K
Seed
Frequency Penalty
Presence Penalty
Repetition Penalty
Response Format
Min P
Logit Bias
도구 사용
Logprobs
Top Logprobs
구조화된 출력
추론
Web Search Options
Top A