Hermes 2 Mixtral 8x7B DPO Detaillierte Informationen und Preise für AI-Modelle anzeigen

Kontext Länge 32,768 Token, nousresearch von bereitgestellt

32,768
Kontext-Token
$0.60
Prompt-Preis
$0.60
Ausgabepreis
7/16
Funktionsunterstützung

Modell-Übersicht

Nous Hermes 2 Mixtral 8x7B DPO is the new flagship Nous Research model trained over the [Mixtral 8x7B MoE LLM](/models/mistralai/mixtral-8x7b). The model was trained on over 1,000,000 entries of primarily [GPT-4](/models/openai/gpt-4) generated data, as well as other high quality data from open datasets across the AI landscape, achieving state of the art performance on a variety of tasks. #moe

Grundinformationen

Entwickler
nousresearch
Modellserie
Mistral
Veröffentlichungsdatum
2024-01-16
Kontextlänge
32,768 Token
Maximale Vervollständigungs-Tokens
2,048 Token
Variante
standard

Preisinformationen

Prompt-Token
$0.60 / 1M Token
Vervollständigungs-Token
$0.60 / 1M Token

Unterstützte Funktionen

Unterstützt (7)

Top K
Häufigkeitsstrafe
Presence Penalty
Wiederholungsstrafe
Antwortformat
Min P
Logit-Bias

Nicht unterstützt (9)

Bildeingabe
Seed
Tool-Nutzung
Logprobs
Top Logprobs
Strukturierte Ausgaben
Schlussfolgerung
Web-Suchoptionen
Top A

Tatsächliche Nutzungsstatistiken

#281
Von insgesamt 345 Modellen
41.44M
Gesamte Tokens der letzten 30 Tage
1.38M
Tägliche Durchschnittsnutzung
21%
Wöchentliche Nutzungsänderung

Nutzungstrend der letzten 30 Tage

Modelle desselben Autors (nousresearch)

DeepHermes 3 Mistral 24B Preview (free)
32,768 Token
Kostenlos
DeepHermes 3 Llama 3 8B Preview (free)
131,072 Token
Kostenlos
Hermes 3 70B Instruct
131,072 Token
$0.12 / $0.30
Hermes 3 405B Instruct
131,072 Token
$0.70 / $0.80
Hermes 2 Theta 8B
16,384 Token
$0.00 / $0.00

Modelle in ähnlicher Preisklasse

WizardLM-2 8x22B
microsoft
65,536 Token
$0.48 / $0.48
UnslopNemo 12B
thedrummer
32,000 Token
$0.45 / $0.45
Arcee Blitz
arcee-ai
32,768 Token
$0.45 / $0.75