Yurii Paniv commited on
Commit
0e66f0e
1 Parent(s): a7c8bfb

Update README

Browse files
Files changed (1) hide show
  1. README.md +22 -3
README.md CHANGED
@@ -3,16 +3,20 @@ license: mit
3
  tags:
4
  - generated_from_trainer
5
  model-index:
6
- - name: results
7
  results: []
 
 
 
 
8
  ---
9
 
10
  <!-- This model card has been generated automatically according to the information the Trainer had access to. You
11
  should probably proofread and complete it, then remove this comment. -->
12
 
13
- # results
14
 
15
- This model is a fine-tuned version of [ukr-models/xlm-roberta-base-uk](https://huggingface.co/ukr-models/xlm-roberta-base-uk) on the None dataset.
16
  It achieves the following results on the evaluation set:
17
  - Loss: 1.4778
18
 
@@ -20,6 +24,21 @@ It achieves the following results on the evaluation set:
20
 
21
  More information needed
22
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
23
  ## Intended uses & limitations
24
 
25
  More information needed
 
3
  tags:
4
  - generated_from_trainer
5
  model-index:
6
+ - name: ukrainian-qa
7
  results: []
8
+ widget:
9
+ - text: "Що відправлять для ЗСУ?"
10
+ context: "Про це повідомив міністр оборони Арвідас Анушаускас. Уряд Литви не має наміру зупинятися у військово-технічній допомозі Україні. Збройні сили отримають антидрони, тепловізори та ударний безпілотник. «Незабаром Литва передасть Україні не лише обіцяні бронетехніку, вантажівки та позашляховики, але також нову партію антидронів та тепловізорів. І, звичайно, Байрактар, який придбають на зібрані литовцями гроші», - написав глава Міноборони."
11
+
12
  ---
13
 
14
  <!-- This model card has been generated automatically according to the information the Trainer had access to. You
15
  should probably proofread and complete it, then remove this comment. -->
16
 
17
+ # ukrainian-qa
18
 
19
+ This model is a fine-tuned version of [ukr-models/xlm-roberta-base-uk](https://huggingface.co/ukr-models/xlm-roberta-base-uk) on the [UA-SQuAD](https://github.com/fido-ai/ua-datasets/tree/main/ua_datasets/src/question_answering) dataset.
20
  It achieves the following results on the evaluation set:
21
  - Loss: 1.4778
22
 
 
24
 
25
  More information needed
26
 
27
+ ## How to use
28
+
29
+ ```
30
+ from transformers import pipeline, AutoTokenizer, AutoModelForQuestionAnswering
31
+ model_name = "robinhad/ukrainian-qa"
32
+
33
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
34
+ model = AutoModelForQuestionAnswering.from_pretrained(model_name)
35
+
36
+ qa_model = pipeline("question-answering", model=model.to("cpu"), tokenizer=tokenizer)
37
+ question = "Де ти живеш?"
38
+ context = "Мене звати Сара і я живу у Лондоні"
39
+ qa_model(question = question, context = context)
40
+ ```
41
+
42
  ## Intended uses & limitations
43
 
44
  More information needed