--- language: - en - fa --- ![](https://tech-writing-tools.s3.us-west-2.amazonaws.com/fd7b7fe1-2565-4845-eb66-3b0ca9587c99.png) ## [Model description](#model-description) | [Example output](#example-output) | [Banchmark results](#banchmark-results) | [How to use](#how-to-use) | [Training and finetuning](#training-and-finetuning) | ---- # Model description ---- # Example output: **Example 1:** - Input: "سلام، خوبی؟" - Output: "سلام، خوشحالم که با شما صحبت می کنم. چطور می توانم به شما کمک کنم؟" **Example 2:** - Input: "سلام، خوبی؟" - Output: "سلام، خوشحالم که با شما صحبت می کنم. چطور می توانم به شما کمک کنم؟" ---- # Banchmark results ---- # How to use ```python from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("aidal/Persian-Mistral-7B") model = AutoModelForCausalLM.from_pretrained("aidal/Persian-Mistral-7B") input_text = "پایتخت ایران کجاست؟" input_ids = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**input_ids) print(tokenizer.decode(outputs[0])) ``` ---- # Training and finetuning