Shisa V2 Llama 3.3 70B AIモデルの詳細情報と価格を確認してください

コンテキスト 長さ 32,768 トークン、 shisa-ai から 提供

32,768
コンテキストトークン
$0.02
プロンプト価格
$0.08
出力価格
9/16
機能サポート

モデル紹介

Shisa V2 Llama 3.3 70B is a bilingual Japanese-English chat model fine-tuned by Shisa.AI on Meta’s Llama-3.3-70B-Instruct base. It prioritizes Japanese language performance while retaining strong English capabilities. The model was optimized entirely through post-training, using a refined mix of supervised fine-tuning (SFT) and DPO datasets including regenerated ShareGPT-style data, translation tasks, roleplaying conversations, and instruction-following prompts. Unlike earlier Shisa releases, this version avoids tokenizer modifications or extended pretraining. Shisa V2 70B achieves leading Japanese task performance across a wide range of custom and public benchmarks, including JA MT Bench, ELYZA 100, and Rakuda. It supports a 128K token context length and integrates smoothly with inference frameworks like vLLM and SGLang. While it inherits safety characteristics from its base model, no additional alignment was applied. The model is intended for high-performance bilingual chat, instruction following, and translation tasks across JA/EN.

基本情報

開発者
shisa-ai
モデルシリーズ
Llama3
リリース日
2025-04-15
コンテキスト長
32,768 トークン
バリアント
standard

価格情報

プロンプトトークン
$0.02 / 1M トークン
完了トークン
$0.08 / 1M トークン

データポリシー

利用規約

학습 정책

1

サポート機能

サポート済み (9)

Top K
シード
頻度ペナルティ
Presence Penalty
繰り返しペナルティ
Min P
Logitバイアス
Logprobs
Top Logprobs

未対応 (7)

画像入力
レスポンス形式
ツール使用
構造化出力
推論
Web検索オプション
Top A

その他のバリエーション

実際の使用量統計

#280
全353個のモデル中
96.54M
過去30日間の総トークン数
3.22M
1日平均使用量
62%
週間使用量変化

過去30日間の使用量推移

類似価格帯モデル

Devstral Small 2505
mistralai
131,072 トークン
$0.02 / $0.08
Qwen3 30B A3B
qwen
40,960 トークン
$0.02 / $0.08
GLM Z1 32B
thudm
32,768 トークン
$0.02 / $0.08
Qwen2.5 VL 32B Instruct
qwen
16,384 トークン
$0.02 / $0.08
Mistral Small 3.1 24B
mistralai
131,072 トークン
$0.02 / $0.08