Shisa V2 Llama 3.3 70B (free) AIモデルの詳細情報と価格を確認してください

コンテキスト 長さ 32,768 トークン、 shisa-ai から 提供

32,768
コンテキストトークン
無料
プロンプト価格
無料
出力価格
9/16
機能サポート

モデル紹介

Shisa V2 Llama 3.3 70B is a bilingual Japanese-English chat model fine-tuned by Shisa.AI on Meta’s Llama-3.3-70B-Instruct base. It prioritizes Japanese language performance while retaining strong English capabilities. The model was optimized entirely through post-training, using a refined mix of supervised fine-tuning (SFT) and DPO datasets including regenerated ShareGPT-style data, translation tasks, roleplaying conversations, and instruction-following prompts. Unlike earlier Shisa releases, this version avoids tokenizer modifications or extended pretraining. Shisa V2 70B achieves leading Japanese task performance across a wide range of custom and public benchmarks, including JA MT Bench, ELYZA 100, and Rakuda. It supports a 128K token context length and integrates smoothly with inference frameworks like vLLM and SGLang. While it inherits safety characteristics from its base model, no additional alignment was applied. The model is intended for high-performance bilingual chat, instruction following, and translation tasks across JA/EN.

基本情報

開発者
shisa-ai
モデルシリーズ
Llama3
リリース日
2025-04-15
コンテキスト長
32,768 トークン
バリアント
free

価格情報

このモデルは無料で使用できます

データポリシー

利用規約

학습 정책

1

サポート機能

サポート済み (9)

Top K
シード
頻度ペナルティ
Presence Penalty
繰り返しペナルティ
Min P
Logitバイアス
Logprobs
Top Logprobs

未対応 (7)

画像入力
レスポンス形式
ツール使用
構造化出力
推論
Web検索オプション
Top A

実際の使用量統計

#203
全346個のモデル中
294.03M
過去30日間の総トークン数
9.80M
1日平均使用量
21%
週間使用量変化

過去30日間の使用量推移