Shisa V2 Llama 3.3 70B (free) AI 모델의 상세 정보와 가격을 확인하세요

컨텍스트 길이 32,768 토큰, shisa-ai 에서 제공

32,768
컨텍스트 토큰
무료
프롬프트 가격
무료
출력 가격
9/16
기능 지원

모델 소개

Shisa V2 Llama 3.3 70B is a bilingual Japanese-English chat model fine-tuned by Shisa.AI on Meta’s Llama-3.3-70B-Instruct base. It prioritizes Japanese language performance while retaining strong English capabilities. The model was optimized entirely through post-training, using a refined mix of supervised fine-tuning (SFT) and DPO datasets including regenerated ShareGPT-style data, translation tasks, roleplaying conversations, and instruction-following prompts. Unlike earlier Shisa releases, this version avoids tokenizer modifications or extended pretraining. Shisa V2 70B achieves leading Japanese task performance across a wide range of custom and public benchmarks, including JA MT Bench, ELYZA 100, and Rakuda. It supports a 128K token context length and integrates smoothly with inference frameworks like vLLM and SGLang. While it inherits safety characteristics from its base model, no additional alignment was applied. The model is intended for high-performance bilingual chat, instruction following, and translation tasks across JA/EN.

기본 정보

개발사
shisa-ai
모델 시리즈
Llama3
출시일
2025-04-15
컨텍스트 길이
32,768 토큰
변형
free

가격 정보

이 모델은 무료로 사용할 수 있습니다

데이터 정책

이용약관

학습 정책

1

지원 기능

지원됨 (9)

Top K
Seed
Frequency Penalty
Presence Penalty
Repetition Penalty
Min P
Logit Bias
Logprobs
Top Logprobs

미지원 (7)

이미지 입력
Response Format
도구 사용
구조화된 출력
추론
Web Search Options
Top A

실제 사용량 통계

#203
전체 346개 모델 중
294.03M
최근 30일 총 토큰
9.80M
일평균 사용량
21%
주간 사용량 변화

최근 30일 사용량 추이