File size: 5,125 Bytes
211760f
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107

---

language:
- ja
pipeline_tag: text-generation
tags:
- OpenAccess AI Collective
- MPT
- axolotl
- PyTorch
- Transformers
license: apache-2.0

---

[![QuantFactory Banner](https://lh7-rt.googleusercontent.com/docsz/AD_4nXeiuCm7c8lEwEJuRey9kiVZsRn2W-b4pWlu3-X534V3YmVuVc2ZL-NXg2RkzSOOS2JXGHutDuyyNAUtdJI65jGTo8jT9Y99tMi4H4MqL44Uc5QKG77B0d6-JfIkZHFaUA71-RtjyYZWVIhqsNZcx8-OMaA?key=xt3VSDoCbmTY7o-cwwOFwQ)](https://hf.co/QuantFactory)


# QuantFactory/TinySlime-1.1B-Chat-v1.0-GGUF
This is quantized version of [2121-8/TinySlime-1.1B-Chat-v1.0](https://huggingface.co/2121-8/TinySlime-1.1B-Chat-v1.0) created using llama.cpp

# Original Model Card


# TinySlime-1.1B-Chat-v1.0

TinySlime は日本語に特化した小規模言語モデルです。

モデルの一覧

- [TinySlime-1.1B-v1.0](https://huggingface.co/2121-8/TinySlime-1.1B-v1.0)
- [TinySlime-1.1B-Chat-v1.0](https://huggingface.co/2121-8/TinySlime-1.1B-Chat-v1.0)

</br>

このモデルのフルチューニングは、[Axolotl](https://github.com/OpenAccess-AI-Collective/axolotl) を使用して行われました。

[<img src="https://raw.githubusercontent.com/OpenAccess-AI-Collective/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200" height="32"/>](https://github.com/OpenAccess-AI-Collective/axolotl)

## モデル概要

TinySlime-1.1B-Chat-v1.0 は、TinySlime-1.1B-Chat-v1.0 をベースに、Mixtral-8x7B-Instruct-v0.1 が作成した合成データを使用して微調整されたチャットモデルです。</br>
このモデルは、スマートフォンや NVIDIA Jetson などの組み込み環境で動かすことを想定して作成されました。

## ベンチマーク(JP Language Model Evaluation Harness)
| model name                                      | JCommonsenseQA (3-shot) | JNLI (3-shot) | MARC-ja (0-shot) | JSQuAD (2-shot) | jaqket-v2 (1-shot) | xlsum (1-shot) | xwinograd (0-shot) | mgsm (5-shot) | AVERAGE |
|-------------------------------------------------|-------------------------|---------------|------------------|-----------------|--------------------|----------------|---------------------|---------------|---------|
| lkarasu-1.1B                                    | 24.84                   | 34.78         | 50.48            | 51.33           | 18.95              | **9.21**       | 62.15               | 2.80          | 31.82   |
| **TinySlime-Chat**                              | **66.49**               | **64.36**     | **92.68**        | **84.60**       | 42.14              | 7.79           | 60.69**             | **9.20**      | **53.50**   |
| japanese-large-lm-3.6b-instruction-sft          | 38.87                   | 34.68         | 50.52            | 58.57           | 56.54              | 6.25           | 64.23               | 1.60          | 38.91   |
| open-calm-3b                                    | 31.64                   | 36.56         | 50.99            | 51.47           | 50.99              | 4.63           | 63.30               | 2.00          | 35.97   |
| bilingual-gpt-neox-4b-instruction-ppo           | 50.49                   | 38.90         | 88.65            | 72.82           | **65.65**          | 4.69           | 64.75               | 3.80          | 48.72   |
| japanese-gpt-neox-3.6b-instruction-ppo          | 44.59                   | 35.25         | 64.34            | 58.53           | 26.67              | 3.79           | **68.72**           | 3.20          | 33.26   |

## 使用方法

### インストール

このモデルを使用するには、Hugging Face の`transformers`ライブラリをインストールする必要があります

```bash
pip install -U transformers
```

### モデルの読み込み

`transformers`ライブラリを使用してモデルを読み込むことができます

```python
from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "2121-8/TinySlime-1.1B-Chat-v1.0"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModel.from_pretrained(model_name)
```

### テキスト生成

以下の例では、読み込んだモデルを使用してテキストを生成する方法を示します

```python
text = "こんにちは"

messages = [
    {
        "role": "system",
        "content": "You are an assistant called ChatBot. You are a friendly and very good chatbot.",
    },
    {"role": "user", "content": text},
  ]
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
input_ids = tokenizer(prompt, return_tensors="pt")

# テキストを生成
outputs = model.generate(input_ids, max_length=50, num_return_sequences=1)
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)

print(generated_text)
```

## 謝辞

このモデルは、TinyLlama プロジェクトの成果に基づいて構築されました。NLP コミュニティへの貢献に感謝します。
また、このモデルの開発にあたり、[Axolotl](https://github.com/OpenAccess-AI-Collective/axolotl) のサポートとツールを利用しました。
NLP コミュニティへの貢献に感謝します。