RichardErkhov
commited on
Commit
•
89e13dc
1
Parent(s):
662f7d7
uploaded readme
Browse files
README.md
ADDED
@@ -0,0 +1,154 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
Quantization made by Richard Erkhov.
|
2 |
+
|
3 |
+
[Github](https://github.com/RichardErkhov)
|
4 |
+
|
5 |
+
[Discord](https://discord.gg/pvy7H8DZMG)
|
6 |
+
|
7 |
+
[Request more models](https://github.com/RichardErkhov/quant_request)
|
8 |
+
|
9 |
+
|
10 |
+
PersianLLaMA-13B-Instruct - GGUF
|
11 |
+
- Model creator: https://huggingface.co/ViraIntelligentDataMining/
|
12 |
+
- Original model: https://huggingface.co/ViraIntelligentDataMining/PersianLLaMA-13B-Instruct/
|
13 |
+
|
14 |
+
|
15 |
+
| Name | Quant method | Size |
|
16 |
+
| ---- | ---- | ---- |
|
17 |
+
| [PersianLLaMA-13B-Instruct.Q2_K.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q2_K.gguf) | Q2_K | 4.68GB |
|
18 |
+
| [PersianLLaMA-13B-Instruct.IQ3_XS.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.IQ3_XS.gguf) | IQ3_XS | 5.17GB |
|
19 |
+
| [PersianLLaMA-13B-Instruct.IQ3_S.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.IQ3_S.gguf) | IQ3_S | 5.45GB |
|
20 |
+
| [PersianLLaMA-13B-Instruct.Q3_K_S.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q3_K_S.gguf) | Q3_K_S | 5.45GB |
|
21 |
+
| [PersianLLaMA-13B-Instruct.IQ3_M.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.IQ3_M.gguf) | IQ3_M | 5.75GB |
|
22 |
+
| [PersianLLaMA-13B-Instruct.Q3_K.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q3_K.gguf) | Q3_K | 6.08GB |
|
23 |
+
| [PersianLLaMA-13B-Instruct.Q3_K_M.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q3_K_M.gguf) | Q3_K_M | 6.08GB |
|
24 |
+
| [PersianLLaMA-13B-Instruct.Q3_K_L.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q3_K_L.gguf) | Q3_K_L | 6.63GB |
|
25 |
+
| [PersianLLaMA-13B-Instruct.IQ4_XS.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.IQ4_XS.gguf) | IQ4_XS | 6.73GB |
|
26 |
+
| [PersianLLaMA-13B-Instruct.Q4_0.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q4_0.gguf) | Q4_0 | 7.06GB |
|
27 |
+
| [PersianLLaMA-13B-Instruct.IQ4_NL.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.IQ4_NL.gguf) | IQ4_NL | 7.1GB |
|
28 |
+
| [PersianLLaMA-13B-Instruct.Q4_K_S.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q4_K_S.gguf) | Q4_K_S | 7.11GB |
|
29 |
+
| [PersianLLaMA-13B-Instruct.Q4_K.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q4_K.gguf) | Q4_K | 7.52GB |
|
30 |
+
| [PersianLLaMA-13B-Instruct.Q4_K_M.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q4_K_M.gguf) | Q4_K_M | 7.52GB |
|
31 |
+
| [PersianLLaMA-13B-Instruct.Q4_1.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q4_1.gguf) | Q4_1 | 7.81GB |
|
32 |
+
| [PersianLLaMA-13B-Instruct.Q5_0.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q5_0.gguf) | Q5_0 | 8.57GB |
|
33 |
+
| [PersianLLaMA-13B-Instruct.Q5_K_S.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q5_K_S.gguf) | Q5_K_S | 8.57GB |
|
34 |
+
| [PersianLLaMA-13B-Instruct.Q5_K.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q5_K.gguf) | Q5_K | 8.81GB |
|
35 |
+
| [PersianLLaMA-13B-Instruct.Q5_K_M.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q5_K_M.gguf) | Q5_K_M | 8.81GB |
|
36 |
+
| [PersianLLaMA-13B-Instruct.Q5_1.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q5_1.gguf) | Q5_1 | 9.33GB |
|
37 |
+
| [PersianLLaMA-13B-Instruct.Q6_K.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q6_K.gguf) | Q6_K | 10.18GB |
|
38 |
+
| [PersianLLaMA-13B-Instruct.Q8_0.gguf](https://huggingface.co/RichardErkhov/ViraIntelligentDataMining_-_PersianLLaMA-13B-Instruct-gguf/blob/main/PersianLLaMA-13B-Instruct.Q8_0.gguf) | Q8_0 | 13.18GB |
|
39 |
+
|
40 |
+
|
41 |
+
|
42 |
+
|
43 |
+
Original model description:
|
44 |
+
---
|
45 |
+
license: cc-by-nc-4.0
|
46 |
+
language:
|
47 |
+
- fa
|
48 |
+
library_name: transformers
|
49 |
+
tags:
|
50 |
+
- text-generation-inference
|
51 |
+
inference: false
|
52 |
+
pipeline_tag: text-generation
|
53 |
+
datasets:
|
54 |
+
- sinarashidi/alpaca-persian
|
55 |
+
---
|
56 |
+
|
57 |
+
# PersianLLaMA: Towards Building First Persian Large Language Model
|
58 |
+
|
59 |
+
<img src="https://huggingface.co/ViraIntelligentDataMining/PersianLLaMA-2-13B/resolve/main/persianllama.png" alt="PersianLLaMA" width=400/>
|
60 |
+
|
61 |
+
## 🌟 Introduction
|
62 |
+
Welcome to the home of PersianLLaMA, a large language model specifically designed for instruct tasks in the Persian language. With 13 billion parameters, this model is fine-tuned using the Persian Alpaca dataset to excel at executing detailed instructions and delivering tailored outputs.
|
63 |
+
|
64 |
+
## 🛠 Model Description
|
65 |
+
The PersianLLaMA model is specifically designed for inference tasks, allowing it to execute detailed instructions and provide outputs tailored to specific requirements.
|
66 |
+
|
67 |
+
This model has been collaboratively developed by a team of experts, including Mohammad Amin Abbasi, Arash Ghafouri, Mahdi Firouzmandi, Hassan Naderi, Behrouz Minaei Bidgoli.
|
68 |
+
|
69 |
+
## 🚀 Quick Start
|
70 |
+
To integrate PersianLLaMA into your project, follow these steps:
|
71 |
+
```python
|
72 |
+
import torch
|
73 |
+
from transformers import LlamaTokenizer, LlamaForCausalLM
|
74 |
+
|
75 |
+
prompt_input = (
|
76 |
+
"Below is an instruction that describes a task. "
|
77 |
+
"Write a response that appropriately completes the request.\n\n"
|
78 |
+
"### Instruction:\n\n{instruction}\n\n### Response:\n\n"
|
79 |
+
)
|
80 |
+
load_type = torch.float16
|
81 |
+
device = torch.device(0)
|
82 |
+
|
83 |
+
|
84 |
+
def generate_prompt(instruction, input=None):
|
85 |
+
if input:
|
86 |
+
instruction = instruction + '\n' + input
|
87 |
+
return prompt_input.format_map({'instruction': instruction})
|
88 |
+
|
89 |
+
|
90 |
+
model_path = "ViraIntelligentDataMining/PersianLLaMA-13B-Instruct"
|
91 |
+
tokenizer = LlamaTokenizer.from_pretrained(model_path)
|
92 |
+
base_model = LlamaForCausalLM.from_pretrained(
|
93 |
+
model_path,
|
94 |
+
torch_dtype=load_type,
|
95 |
+
device_map='auto',
|
96 |
+
).cuda()
|
97 |
+
|
98 |
+
model_vocab_size = base_model.get_input_embeddings().weight.size(0)
|
99 |
+
tokenizer_vocab_size = len(tokenizer)
|
100 |
+
if model_vocab_size != tokenizer_vocab_size:
|
101 |
+
base_model.resize_token_embeddings(tokenizer_vocab_size)
|
102 |
+
|
103 |
+
|
104 |
+
def generate_answer(base_model, instruction, input=None):
|
105 |
+
generation_config = dict(
|
106 |
+
temperature=0.5,
|
107 |
+
top_k=40,
|
108 |
+
top_p=0.9,
|
109 |
+
repetition_penalty=1.1,
|
110 |
+
max_new_tokens=1024)
|
111 |
+
input_text = generate_prompt(instruction, input)
|
112 |
+
inputs = tokenizer(input_text, return_tensors="pt")
|
113 |
+
generation_output = base_model.generate(
|
114 |
+
input_ids=inputs["input_ids"].to(device),
|
115 |
+
eos_token_id=tokenizer.eos_token_id,
|
116 |
+
pad_token_id=tokenizer.pad_token_id,
|
117 |
+
**generation_config)
|
118 |
+
s = generation_output[0]
|
119 |
+
output = tokenizer.decode(s, skip_special_tokens=True)
|
120 |
+
response = output.split("### Response:")[1].strip()
|
121 |
+
return response
|
122 |
+
|
123 |
+
|
124 |
+
instruction = "تصور کنید در حال نوشتن داستانی درباره یک شهر که تمام ساکنانش ربات هستند. این رباتها تواناییهای ویژهای دارند که زندگی روزمره آنها را از انسانها متمایز میکند. شرح دهید که این رباتها چگونه به کارهای روزانه خود میپردازند و چه چالشهایی با آنها روبهرو هستند. همچنین، توضیح دهید که چگونه معماری شهر برای نیازهای خاص آنها طراحی شده است."
|
125 |
+
|
126 |
+
response = generate_answer(base_model,
|
127 |
+
instruction=instruction,
|
128 |
+
input="")
|
129 |
+
print(response)
|
130 |
+
"""
|
131 |
+
در این شهر، همه ساکنان ربات هستند که دارای توانایی های منحصر به فرد هستند که زندگی روزمره آنها را از انسان ها متمایز می کند. هر روز صبح، ربات ها بیدار می شوند و برنامه های خود را برای روز تنظیم می کنند. برخی از آنها ممکن است برای کار بروند، در حالی که دیگران ممکن است برای انجام وظایف خانگی یا مراقبت از خانواده خود وقت صرف کنند. ربات ها بسیار کارآمد هستند و می توانند چندین کار را همزمان انجام دهند، بنابراین زمان زیادی برای استراحت ندارند. آنها همچنین به طور منظم برای نگهداری و تعمیر نیاز دارند، زیرا آنها مانند انسان ها مستعد خرابی هستند. بسیاری از ربات ها به دنبال سرگرمی هستند و ممکن است برای شرکت در فعالیت هایی مانند ورزش، خواندن یا نقاشی وقت صرف کنند. برخی از ربات ها حتی ممکن است برای یادگیری یا بهبود مهارت های خود در زمینه های مختلف مانند هنر، موسیقی یا آشپزی تلاش کنند. ربات ها همچنین به طور مداوم به پیشرفت های تکنو��وژیکی جدید علاقه مند هستند و اغلب به دنبال راه حل های جدید برای مشکلات موجود در جامعه هستند. در این شهر، همه ساکنان ربات هستند که دارای توانایی های منحصر به فرد هستند که زندگی روزمره آنها را از انسان ها متمایز می کند.
|
132 |
+
"""
|
133 |
+
```
|
134 |
+
|
135 |
+
## 📈 Evaluation and Benchmarks
|
136 |
+
PersianLLaMA demonstrates superior performance over existing models, with robust evaluation metrics that highlight its capabilities in natural language understanding and generation.
|
137 |
+
|
138 |
+
|
139 |
+
## 📜 Citing PersianLLaMA
|
140 |
+
If you find PersianLLaMA useful in your research, please consider citing:
|
141 |
+
|
142 |
+
```bibtex
|
143 |
+
@article{abbasi2023persianllama,
|
144 |
+
title={PersianLLaMA: Towards Building First Persian Large Language Model},
|
145 |
+
author={Abbasi, Mohammad Amin and others},
|
146 |
+
journal={https://arxiv.org/abs/2312.15713},
|
147 |
+
year={2023}
|
148 |
+
}
|
149 |
+
```
|
150 |
+
|
151 |
+
|
152 |
+
## 📄 License
|
153 |
+
PersianLLaMA is open-sourced under the CC BY-NC 4.0 license.
|
154 |
+
|