File size: 6,133 Bytes
1783c3f c8e67c5 0584976 07c10b4 fd930fd 0584976 07c10b4 c8e67c5 07c10b4 0584976 07c10b4 0584976 1d88a3d 8f6c4ec 1d88a3d 8f6c4ec 1d88a3d 8f6c4ec 1d88a3d 8f6c4ec 1d88a3d c32581c 8f6c4ec c32581c b48e950 d6bb19d 8f6c4ec 1d88a3d b48e950 8f6c4ec 1d88a3d 19fd6ae 1d88a3d fd930fd 364b812 fd930fd 364b812 fd930fd 686cacd 1d88a3d b48e950 1d88a3d 8f6c4ec 1d88a3d 8f6c4ec b48e950 1d88a3d 956faec 1d88a3d 956faec 1d88a3d fd930fd 956faec 1d88a3d 956faec 1d88a3d 956faec |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 |
---
datasets:
- akhtet/myXNLI
metrics:
- accuracy
pipeline_tag: zero-shot-classification
widget:
- text: >-
မြန်မာ့စီးပွားရေးမှာ ရွှေ နဲ့ ဒေါ်လာက အရေးပါသလို ဒေါ်လာစျေးပေါ်မူတည်ပြီး
အခြားစားသောက်ကုန်ပစ္စည်းတွေကလည်း လိုက်ပါပြောင်းလဲလေ့ ရှိပါတယ်။
candidate_labels: commerce, fashion, music, politics, sports
multi_class: false
example_title: Myanmar Economy
- text: >-
၂၀၁၇ ခုနှစ် ဇွန်လ ၃၀ ရက်နေ့တွင် ရန်ကုန်မြို့၌ ကျင်းပသော ကိုယ်ခံပညာပေါင်းစုံ
ပြိုင်ပွဲ မစ်ဒယ်ဝိတ်တန်း ကမ္ဘာ့ချန်ပီယံလုပွဲတွင် အောင်လအန်ဆန်က လက်ရှိ
ချန်ပီယံ ဘစ်ဒက်ရှ်ကို လက်ရည်အသာဖြင့် ထိုးသတ်ပြီး အမှတ်ဖြင့် အနိုင်ရကာ
ကမ္ဘာ့ချန်ပီယံဆု ဆွတ်ခူးနိုင်သော ပထမဆုံး မြန်မာတစ်ဦး ဖြစ်လာသည်။
candidate_labels: boxing, football, MMA, racing, swimming
multi_class: false
example_title: MMA Championship
- text: >-
မြန်မာ့ရိုးရာ အစားအစာတစ်မျိုးဖြစ်သော မုန့်ဟင်းငါးသည် အချဉ်ဖောက် ပြုလုပ်သည့်
ဆန်ခေါက်ဆွဲဖတ် (မုန့်ဖတ်) လေးများနှင့် ငါးဖြင့် အဓိက ချက်လုပ်သော
မုန့်ဟင်းငါးဟင်းရည် ခေါ် ဟင်းငါးရည် တို့ကို အခြား အစာပလာများနှင့် အတူတွဲဖက်
စားသုံးရသည့် သွားရည်စာ တစ်မျိုးဖြစ်သည်။
candidate_labels: chicken, fish, food, rice, soup
multi_class: true
example_title: Local Food
license: mit
language:
- my
- en
---
# Model Card for mDeBERTa-v3-base-myXNLI
mDeBERTa-v3-base-myXNLI is a transformer model for text classification English and Myanmar (Burmese).
It is based on multilingual DeBERTa v3 model and fine-tuned using myXNLI dataset on the Natural Language Inference task in English and Myanmar.
Thus it is useful for Natural Language Inference and related tasks such as Zero-shot Text Classification on both English and Myanmar data.
## Model Details
- **Model type:** Transformer Encoder
- **Language(s) (NLP):** Fine-tuned for Myanmar (Burmese) and English
- **License:** MIT
- **Finetuned from model:** mDeBERTa v3 base https://huggingface.co/microsoft/mdeberta-v3-base
- **Paper :** Myanmar XNLI https://www.researchsquare.com/article/rs-4329843
- **Demo :** A demo of Zero-shot Text Classification in Myanmar can be found on this page.
## Bias, Risks, and Limitations
Please refer to the papers for original foundation model: DeBERTa https://arxiv.org/abs/2006.03654 and DeBERTaV3 https://arxiv.org/abs/2111.09543.
<!-- Any limitations with myXNLI ? -->
## How to Get Started with the Model
Use the code below to get started with the model for zero-shot classification task.
```
from transformers import pipeline
classifier = pipeline(task="zero-shot-classification", model="akhtet/mDeBERTa-v3-base-myXNLI", framework="pt")
output = classifier("မြန်မာ့စီးပွားရေးမှာ ရွှေ နဲ့ ဒေါ်လာက အရေးပါသလို ဒေါ်လာစျေးပေါ်မူတည်ပြီး အခြားစားသောက်ကုန်ပစ္စည်းတွေကလည်း လိုက်ပါပြောင်းလဲလေ့ ရှိပါတယ်။",
candidate_labels=["commerce", "fashion", "music", "politics", "sports"],
)
print (output)
# output
# {'sequence': 'မြန်မာ့စီးပွားရေးမှာ ရွှေ နဲ့ ဒေါ်လာက အရေးပါသလို ဒေါ်လာစျေးပေါ်မူတည်ပြီး အခြားစားသောက်ကုန်ပစ္စည်းတွေကလည်း လိုက်ပါပြောင်းလဲလေ့ ရှိပါတယ်။',
# 'labels': ['commerce', 'politics', 'fashion', 'music', 'sports'],
# 'scores': [0.8995707631111145, 0.048580411821603775, 0.035297513008117676, 0.009092549793422222, 0.007458842825144529]}
```
Fore more details on zero-shot classification, please refer to HuggingFace documentation https://huggingface.co/tasks/zero-shot-classification
## Training Details
The model is fine-tuned on myXNLI dataset https://huggingface.co/datasets/akhtet/myXNLI. The English portion of myXNLI is from XNLI dataset.
From this dataset, 4 different copies training data from myXNLI were concatenated, each with sentence pairs in en-en, en-my, my-en and my-my combinations.
Training on cross-matched language data as above improved the NLI accuracy over training separately in each language.
This approach was inspired by another model https://huggingface.co/joeddav/xlm-roberta-large-xnli
The model was fine-tuned using this combined dataset for a single epoch.
## Evaluation
This model has been evaluted on myXNLI testset for Myanmar accuracy. We also provide the accuracy for English using XNLI testset.
| Model | English accuracy | Myanmar accuracy |
| ----- | ----- | ----- |
| mDeBERTa-v3-base-myXNLI | 88.02 | 80.99 |
## Citation
<!-- If there is a paper or blog post introducing the model, the APA and Bibtex information for that should go in this section. -->
[More Information Needed]
## Model Card Contact
Aung Kyaw Htet |