Shisa V2 Llama 3.3 70B (free) Detaillierte Informationen und Preise für AI-Modelle anzeigen

Kontext Länge 32,768 Token, shisa-ai von bereitgestellt

32,768
Kontext-Token
Kostenlos
Prompt-Preis
Kostenlos
Ausgabepreis
9/16
Funktionsunterstützung

Modell-Übersicht

Shisa V2 Llama 3.3 70B is a bilingual Japanese-English chat model fine-tuned by Shisa.AI on Meta’s Llama-3.3-70B-Instruct base. It prioritizes Japanese language performance while retaining strong English capabilities. The model was optimized entirely through post-training, using a refined mix of supervised fine-tuning (SFT) and DPO datasets including regenerated ShareGPT-style data, translation tasks, roleplaying conversations, and instruction-following prompts. Unlike earlier Shisa releases, this version avoids tokenizer modifications or extended pretraining. Shisa V2 70B achieves leading Japanese task performance across a wide range of custom and public benchmarks, including JA MT Bench, ELYZA 100, and Rakuda. It supports a 128K token context length and integrates smoothly with inference frameworks like vLLM and SGLang. While it inherits safety characteristics from its base model, no additional alignment was applied. The model is intended for high-performance bilingual chat, instruction following, and translation tasks across JA/EN.

Grundinformationen

Entwickler
shisa-ai
Modellserie
Llama3
Veröffentlichungsdatum
2025-04-15
Kontextlänge
32,768 Token
Variante
free

Preisinformationen

Dieses Modell ist kostenlos nutzbar

Datenrichtlinie

Nutzungsbedingungen

학습 정책

1

Unterstützte Funktionen

Unterstützt (9)

Top K
Seed
Häufigkeitsstrafe
Presence Penalty
Wiederholungsstrafe
Min P
Logit-Bias
Logprobs
Top Logprobs

Nicht unterstützt (7)

Bildeingabe
Antwortformat
Tool-Nutzung
Strukturierte Ausgaben
Schlussfolgerung
Web-Suchoptionen
Top A

Tatsächliche Nutzungsstatistiken

#203
Von insgesamt 346 Modellen
294.03M
Gesamte Tokens der letzten 30 Tage
9.80M
Tägliche Durchschnittsnutzung
21%
Wöchentliche Nutzungsänderung

Nutzungstrend der letzten 30 Tage