|
--- |
|
language: |
|
- en |
|
- fa |
|
--- |
|
|
|
![](https://tech-writing-tools.s3.us-west-2.amazonaws.com/fd7b7fe1-2565-4845-eb66-3b0ca9587c99.png) |
|
|
|
## [Model description](#model-description) | [Example output](#example-output) | [Banchmark results](#banchmark-results) | [How to use](#how-to-use) | [Training and finetuning](#training-and-finetuning) | |
|
|
|
---- |
|
# Model description |
|
---- |
|
# Example output: |
|
|
|
**Example 1:** |
|
- Input: "سلام، خوبی؟" |
|
- Output: "سلام، خوشحالم که با شما صحبت می کنم. چطور می توانم به شما کمک کنم؟" |
|
|
|
**Example 2:** |
|
- Input: "سلام، خوبی؟" |
|
- Output: "سلام، خوشحالم که با شما صحبت می کنم. چطور می توانم به شما کمک کنم؟" |
|
---- |
|
# Banchmark results |
|
---- |
|
# How to use |
|
|
|
```python |
|
from transformers import AutoTokenizer, AutoModelForCausalLM |
|
|
|
tokenizer = AutoTokenizer.from_pretrained("aidal/Persian-Mistral-7B") |
|
model = AutoModelForCausalLM.from_pretrained("aidal/Persian-Mistral-7B") |
|
|
|
input_text = "پایتخت ایران کجاست؟" |
|
input_ids = tokenizer(input_text, return_tensors="pt") |
|
|
|
outputs = model.generate(**input_ids) |
|
print(tokenizer.decode(outputs[0])) |
|
``` |
|
---- |
|
# Training and finetuning |
|
|