Edit model card

tokyotech-llm-Swallow-MX-8x7b-NVE-v0.1-gguf

tokyotech-llmさんが公開しているSwallow-MX-8x7b-NVE-v0.1のggufフォーマット変換版です。 こちらはベースモデルになります。

他のモデル

mmnga/tokyotech-llm-Swallow-7b-plus-hf-gguf
mmnga/tokyotech-llm-Swallow-MS-7b-v0.1-gguf
mmnga/tokyotech-llm-Swallow-MX-8x7b-NVE-v0.1-gguf

Usage

git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
make -j
./main -m 'tokyotech-llm-Swallow-MX-8x7b-NVE-v0.1-q4_0.gguf' -p "今晩の夕食をご紹介します。" -n 128 
Downloads last month
1,732
GGUF
Model size
46.7B params
Architecture
llama

2-bit

3-bit

4-bit

5-bit

6-bit

8-bit

Inference API
Unable to determine this model's library. Check the docs .