Hermes 2 Mixtral 8x7B DPO AI 모델의 상세 정보와 가격을 확인하세요
컨텍스트 길이 32,768 토큰, nousresearch 에서 제공
32,768
컨텍스트 토큰
$0.60
프롬프트 가격
$0.60
출력 가격
7/16
기능 지원
모델 소개
Nous Hermes 2 Mixtral 8x7B DPO is the new flagship Nous Research model trained over the [Mixtral 8x7B MoE LLM](/models/mistralai/mixtral-8x7b). The model was trained on over 1,000,000 entries of primarily [GPT-4](/models/openai/gpt-4) generated data, as well as other high quality data from open datasets across the AI landscape, achieving state of the art performance on a variety of tasks. #moe
기본 정보
개발사
nousresearch
모델 시리즈
Mistral
출시일
2024-01-16
컨텍스트 길이
32,768 토큰
최대 완료 토큰
2,048 토큰
변형
standard
가격 정보
프롬프트 토큰
$0.60 / 1M 토큰
완료 토큰
$0.60 / 1M 토큰
지원 기능
지원됨 (7)
Top K
Frequency Penalty
Presence Penalty
Repetition Penalty
Response Format
Min P
Logit Bias
미지원 (9)
이미지 입력
Seed
도구 사용
Logprobs
Top Logprobs
구조화된 출력
추론
Web Search Options
Top A
실제 사용량 통계
#281
전체 345개 모델 중
41.44M
최근 30일 총 토큰
1.38M
일평균 사용량
21%
주간 사용량 변화