DeepSeek V3.1 Base Detaillierte Informationen und Preise für AI-Modelle anzeigen
Kontext Länge 163,840 Token, deepseek von bereitgestellt
163,840
Kontext-Token
$0.20
Prompt-Preis
$0.80
Ausgabepreis
9/16
Funktionsunterstützung
Modell-Übersicht
This is a base model, trained only for raw next-token prediction. Unlike instruct/chat models, it has not been fine-tuned to follow user instructions. Prompts need to be written more like training text or examples rather than simple requests (e.g., “Translate the following sentence…” instead of just “Translate this”). DeepSeek-V3.1 Base is a 671B parameter open Mixture-of-Experts (MoE) language model with 37B active parameters per forward pass and a context length of 128K tokens. Trained on 14.8T tokens using FP8 mixed precision, it achieves high training efficiency and stability, with strong performance across language, reasoning, math, and coding tasks.
Grundinformationen
Entwickler
deepseek
Modellserie
DeepSeek
Veröffentlichungsdatum
2025-08-20
Kontextlänge
163,840 Token
Variante
standard
Preisinformationen
Prompt-Token
$0.20 / 1M Token
Vervollständigungs-Token
$0.80 / 1M Token
Datenrichtlinie
Nutzungsbedingungen
학습 정책
1
Unterstützte Funktionen
Unterstützt (9)
Top K
Seed
Häufigkeitsstrafe
Presence Penalty
Wiederholungsstrafe
Min P
Logit-Bias
Logprobs
Top Logprobs
Nicht unterstützt (7)
Bildeingabe
Antwortformat
Tool-Nutzung
Strukturierte Ausgaben
Schlussfolgerung
Web-Suchoptionen
Top A