Mercury Coder Confira informações detalhadas e preços dos modelos de AI
Contexto Comprimento 128,000 tokens, inception de fornecido
128,000
Tokens de Contexto
$0.25
Preço do Prompt
$1.00
Preço de saída
6/16
Suporte de Recursos
Introdução do Modelo
Mercury Coder is the first diffusion large language model (dLLM). Applying a breakthrough discrete diffusion approach, the model runs 5-10x faster than even speed optimized models like Claude 3.5 Haiku and GPT-4o Mini while matching their performance. Mercury Coder's speed means that developers can stay in the flow while coding, enjoying rapid chat-based iteration and responsive code completion suggestions. On Copilot Arena, Mercury Coder ranks 1st in speed and ties for 2nd in quality. Read more in the [blog post here](https://www.inceptionlabs.ai/introducing-mercury).
Informações Básicas
Desenvolvedor
inception
Série de Modelos
Other
Data de lançamento
2025-04-30
Comprimento do Contexto
128,000 tokens
Tokens de Conclusão Máximos
16,384 tokens
Variante
standard
Informações de Preços
Tokens de Prompt
$0.25 / 1M tokens
Tokens de Conclusão
$1.00 / 1M tokens
Política de Dados
Recursos Suportados
Suportado (6)
Top K
Penalidade de Frequência
Penalidade de Presença
Formato de Resposta
Uso de Ferramentas
Saídas Estruturadas
Não suportado (10)
Entrada de Imagem
Seed
Penalidade de Repetição
Min P
Viés Logit
Logprobs
Top Logprobs
Raciocínio
Opções de Pesquisa Web
Top A
Estatísticas de Uso Real
#224
De 353 modelos no total
339.57M
Total de Tokens Últimos 30 Dias
11.32M
Uso Médio Diário
58%
Mudança de Uso Semanal