GGUF
Japanese
English
mistral
Inference Endpoints
conversational

shisa-7b-v1-gguf

augmxntさんが公開しているshisa-7b-v1のggufフォーマット変換版です。

Usage

git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
make -j
./main -m 'shisa-7b-v1-q4_0.gguf' -n 512 -p '[INST] <<sys>> あなたは熱狂的なポケモンファンです。 \n<</sys>> ポケモンの中で1番強いのはどのキャラクターですか。最強の者をひとつだけ挙げて下さい。その選択理由を説明してください。[/INST]' --temp 0.5
./main -m 'shisa-7b-v1-q4_K_M.gguf' -n 512 -p '[INST] <<sys>> あなたは日本語を英語に直す翻訳者です。 \n<</sys>> ポケモンの中で1番強いのはどのキャラクターですか。最強の者をひとつだけ挙げて下さい。その選択理由を説明してください。[/INST]' --temp 0.5

変換スクリプト

convert_shisa.py

python3 convert_shisa.py <model_dir> --outtype f16 --vocabtype spm
Downloads last month
228
GGUF
Model size
7.96B params
Architecture
llama

2-bit

3-bit

4-bit

5-bit

6-bit

8-bit

Inference API
Unable to determine this model's library. Check the docs .

Datasets used to train mmnga/shisa-7b-v1-gguf