Mercury Coder Consultez les informations détaillées et les prix des modèles d'IA
Contexte Longueur 128,000 tokens, inception de fourni
128,000
Tokens de Contexte
$0.25
Prix du Prompt
$1.00
Prix de sortie
6/16
Support de Fonctionnalités
Présentation du Modèle
Mercury Coder is the first diffusion large language model (dLLM). Applying a breakthrough discrete diffusion approach, the model runs 5-10x faster than even speed optimized models like Claude 3.5 Haiku and GPT-4o Mini while matching their performance. Mercury Coder's speed means that developers can stay in the flow while coding, enjoying rapid chat-based iteration and responsive code completion suggestions. On Copilot Arena, Mercury Coder ranks 1st in speed and ties for 2nd in quality. Read more in the [blog post here](https://www.inceptionlabs.ai/introducing-mercury).
Informations de Base
Développeur
inception
Série de Modèles
Other
Date de sortie
2025-04-30
Longueur de Contexte
128,000 tokens
Tokens de Complétion Maximum
16,384 tokens
Variante
standard
Informations sur les Prix
Jetons de Prompt
$0.25 / 1M jetons
Tokens de Complétion
$1.00 / 1M jetons
Politique de Données
Fonctionnalités Prises en Charge
Pris en charge (6)
Top K
Pénalité de Fréquence
Pénalité de Présence
Format de Réponse
Utilisation d'Outils
Sorties Structurées
Non pris en charge (10)
Entrée d'Image
Seed
Pénalité de Répétition
Min P
Biais Logit
Logprobs
Top Logprobs
Raisonnement
Options de Recherche Web
Top A
Statistiques d'Utilisation Réelle
#224
Sur 353 modèles au total
339.57M
Total des Tokens des 30 derniers jours
11.32M
Usage Moyen Quotidien
58%
Changement d'Usage Hebdomadaire