File size: 1,222 Bytes
6e8f421
 
 
 
f20c925
 
52f346c
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
f20c925
 
 
e09c0eb
 
f20c925
 
 
 
 
 
52f346c
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
---
language:
- en
- fa
---

![](https://tech-writing-tools.s3.us-west-2.amazonaws.com/fd7b7fe1-2565-4845-eb66-3b0ca9587c99.png)

## [Model description](#model-description) | [Example output](#example-output) | [Banchmark results](#banchmark-results) | [How to use](#how-to-use) | [Training and finetuning](#training-and-finetuning) | 

----
# Model description
----
# Example output:

**Example 1:**
- Input: "سلام، خوبی؟"
- Output: "سلام، خوشحالم که با شما صحبت  می کنم. چطور می توانم به شما کمک کنم؟"

**Example 2:**
- Input: "سلام، خوبی؟"
- Output: "سلام، خوشحالم که با شما صحبت  می کنم. چطور می توانم به شما کمک کنم؟"
----
# Banchmark results
----
# How to use

```python
from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("aidal/Persian-Mistral-7B")
model = AutoModelForCausalLM.from_pretrained("aidal/Persian-Mistral-7B")

input_text = "پایتخت ایران کجاست؟"
input_ids = tokenizer(input_text, return_tensors="pt")

outputs = model.generate(**input_ids)
print(tokenizer.decode(outputs[0]))
```
----
# Training and finetuning