File size: 13,311 Bytes
c577de9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
---
base_model: mini1013/master_domain
library_name: setfit
metrics:
- metric
pipeline_tag: text-classification
tags:
- setfit
- sentence-transformers
- text-classification
- generated_from_setfit_trainer
widget:
- text: 아메리칸투어리스터 STARK 이민가방 2 BLACK GK109001 GK109001 GK109001/FREE 홈앤쇼핑몰
- text: 수리 부품 핸들 교체 캐리어 트롤리 셀프 가방 손잡이 H027그레이1개(가죽자리) 민인터내셔널
- text: 캐리어 사각 네임택 분실방지 골프 여행 가방 이름표 흰색-파리 에펠탑 최첨단mall
- text: 여행소품 TSA 자물쇠 타입 캐리어 고정 벨트 지퍼고장시 분실방지  주식회사 마카롱소프트
- text: 보호 M사이즈 캐리어보호커버 캐리어 스판덱스 커버 TRC805M 위드위너(g)
inference: true
model-index:
- name: SetFit with mini1013/master_domain
  results:
  - task:
      type: text-classification
      name: Text Classification
    dataset:
      name: Unknown
      type: unknown
      split: test
    metrics:
    - type: metric
      value: 0.9003322259136213
      name: Metric
---

# SetFit with mini1013/master_domain

This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [mini1013/master_domain](https://huggingface.co/mini1013/master_domain) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.

The model has been trained using an efficient few-shot learning technique that involves:

1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
2. Training a classification head with features from the fine-tuned Sentence Transformer.

## Model Details

### Model Description
- **Model Type:** SetFit
- **Sentence Transformer body:** [mini1013/master_domain](https://huggingface.co/mini1013/master_domain)
- **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
- **Maximum Sequence Length:** 512 tokens
- **Number of Classes:** 12 classes
<!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->

### Model Sources

- **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
- **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
- **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)

### Model Labels
| Label | Examples                                                                                                                                                                                                         |
|:------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 10.0  | <ul><li>'캐리어바퀴 여행용 휠 교체 수리 수선 무소음 51종 49. W358 페어 오리지널리티'</li><li>'교체 수리 부품 범용 호환 캐스터 여행 캐리어바퀴 15.O(상세페이지 참조) 아라가나고야도이길'</li><li>'해외가방 교체부품 액세서리 손잡이 캐리어 수리 핸들 여행용 수하물 핸들링 범용 28호 손잡이(1개) 루디프몰'</li></ul>        |
| 8.0   | <ul><li>'십자형 캐리어 벨트 투웨이 고정 트렁크 밴드 여행 가방 보호 잠금 오렌지 도비77마켓'</li><li>'TCUBE - 멀티 안전케이블 + 4다이얼 안전자물쇠 세트 - 2.5M[티큐브] 블루 주식회사 웹이즈'</li><li>'정확도 다용도 도난방지 락 자전거열쇠 바이크열쇠 오토바이열쇠  코베유통'</li></ul>                         |
| 1.0   | <ul><li>'캐리어 네임택 러기지택 여행 가방 네임 표시 이름표 태그 플라스틱 케이블 스트랩 6. 그린 우동방구'</li><li>'홀로그램 피오피 네임택 골프 배드민턴 볼링 축구 야구 태권도 탁구 테니스 등산 콘서트명찰 9cm_양면_검정 플라스틱 그레이브러시'</li><li>'[마넷] 마넷 실리콘 러기지택 4종 04. 버니슈 (주) 교보문고'</li></ul>     |
| 6.0   | <ul><li>'레츠백 플라커 세면백 LB405TBNG 블랙 갓블레스'</li><li>'언더아머 핸드백 1361993-001 UA 컨테인 트레블 키트 1361993-001_1 주식회사 비비엘유이코리아'</li><li>'세면백 여행용워시백 투명 방수 세면도구파우치 워시백 블랙(M) 최민준'</li></ul>                                      |
| 5.0   | <ul><li>'씨투써밋 트래블 월렛 RFID SM 여행 여권 목걸이 지갑 11203586 SM 하이라이즈 더블유컴퍼니'</li><li>'월레스와 그로밋 여권 케이스 지갑 커버 가족 네이비 핫핑크_one size 폰브로스'</li><li>'[캐스키드슨] 패스포트 홀더 씨사이드 쉘 (CK-A105347216662102)  (주)스타럭스'</li></ul>           |
| 9.0   | <ul><li>'[맨백] 대용량 캐리어 대형 36인치 여행용 케리어 ELG456L 32인치_라이트블루 맨백스토어'</li><li>'아메리칸투어리스터TREPPE PLUS 트레페 플러스 여행가방 5종 세트 색상:아이언 레드 GSSHOPTV'</li><li>'30% 스카이코브 25인치 다크섀도우 GE407005BCDS 다크섀도우_46 31 69 NC_백화점'</li></ul> |
| 4.0   | <ul><li>'빈티지 슈트 케이스 레트로 엔틱 가방 촬영 소품 고전 브라운A 페트라클라우드'</li><li>'빈티지 슈트 케이스 레트로 엔틱 가방 촬영 소품 고전 브라운B 페트라클라우드'</li><li>'[시후레] 초경량 프레임 가방 ZEROGRA 제로그라 ZER1143 74 cm 5.1 kg 매트 블랙  YSPlanning'</li></ul>               |
| 0.0   | <ul><li>'(NS홈쇼핑) 트래커 마카론 여행가방 2종 SET(캐리어+미니크로스백) 31889386 바나나옐로우 신세계몰'</li><li>'PESPES. 루키 레디백 12형 커스터드 옐로우 [0001]단일상품 CJONSTYLE'</li><li>'정식수입품 에어휠 전동캐리어 블랙핑크실버 최고급 프리미엄 모델 SE3S 프리미엄_핑크 한미그린산업(주)'</li></ul>  |
| 7.0   | <ul><li>'롤리키드 저소음 2단 이민가방 RLP9IG2 [0002]버건디 CJONSTYLE'</li><li>'캐리어 타입 블랙 초대형 소프트 여행가방 이민가방 ~32인치 H_큰 한경리'</li><li>'100인치 특대 여행가방 초대형 수하물캐리어 한달살기 이민 C_80 인치 워너직구'</li></ul>                                     |
| 11.0  | <ul><li>'캐릭터 스판 캐리어 커버 여행용 캐리어 보호커버 가방보호 06.쿠마몬_L 오에스케이(On Sale Korea)'</li><li>'스판 무지 캐리어커버 20인치 방수 30인치 24인치 28인치 케리어 덮개 블루_XL 헬로쁘미'</li><li>'[꿀트립] 스판/방수 캐리어커버 (HFTR) 06.베리마블_S(TRAE23L-S) 호자인터내셔널'</li></ul> |
| 3.0   | <ul><li>'허리 수납 밴드 복대 여행용 가방 힙색 지갑 그레이:M 쏭리빙'</li><li>'LEA-L1300 멀티여행백 연보라 와플플러스 주식회사'</li><li>'허리힙색 여권복대 여행보조백 폰가방 스포츠전대 검정 추가C'</li></ul>                                                                       |
| 2.0   | <ul><li>'방수 여행 용 보스턴백 백팩 가방 캠핑 구 숄더백 쇼퍼백 커플 블랙 서승솔루션'</li><li>'레스포삭 라지 트래블백 방수 토트 크로스백 대용량 4319 블랙 블랙 스누피 쿼카상점'</li><li>'갤러리아 헤리티지 카고 백 라이트 NN2FP78A (BLK) - NN2FP78 검정_one size/free 갤러리아백화점'</li></ul>         |

## Evaluation

### Metrics
| Label   | Metric |
|:--------|:-------|
| **all** | 0.9003 |

## Uses

### Direct Use for Inference

First install the SetFit library:

```bash
pip install setfit
```

Then you can load this model and run inference.

```python
from setfit import SetFitModel

# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("mini1013/master_cate_ac11")
# Run inference
preds = model("보호 M사이즈 캐리어보호커버 캐리어 스판덱스 커버 TRC805M 위드위너(g)")
```

<!--
### Downstream Use

*List how someone could finetune this model on their own dataset.*
-->

<!--
### Out-of-Scope Use

*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->

<!--
## Bias, Risks and Limitations

*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->

<!--
### Recommendations

*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->

## Training Details

### Training Set Metrics
| Training set | Min | Median  | Max |
|:-------------|:----|:--------|:----|
| Word count   | 3   | 10.4117 | 23  |

| Label | Training Sample Count |
|:------|:----------------------|
| 0.0   | 50                    |
| 1.0   | 50                    |
| 2.0   | 50                    |
| 3.0   | 50                    |
| 4.0   | 50                    |
| 5.0   | 50                    |
| 6.0   | 50                    |
| 7.0   | 50                    |
| 8.0   | 50                    |
| 9.0   | 50                    |
| 10.0  | 50                    |
| 11.0  | 50                    |

### Training Hyperparameters
- batch_size: (512, 512)
- num_epochs: (20, 20)
- max_steps: -1
- sampling_strategy: oversampling
- num_iterations: 40
- body_learning_rate: (2e-05, 2e-05)
- head_learning_rate: 2e-05
- loss: CosineSimilarityLoss
- distance_metric: cosine_distance
- margin: 0.25
- end_to_end: False
- use_amp: False
- warmup_proportion: 0.1
- seed: 42
- eval_max_steps: -1
- load_best_model_at_end: False

### Training Results
| Epoch   | Step | Training Loss | Validation Loss |
|:-------:|:----:|:-------------:|:---------------:|
| 0.0106  | 1    | 0.3558        | -               |
| 0.5319  | 50   | 0.2892        | -               |
| 1.0638  | 100  | 0.136         | -               |
| 1.5957  | 150  | 0.075         | -               |
| 2.1277  | 200  | 0.0462        | -               |
| 2.6596  | 250  | 0.0302        | -               |
| 3.1915  | 300  | 0.0165        | -               |
| 3.7234  | 350  | 0.0173        | -               |
| 4.2553  | 400  | 0.0096        | -               |
| 4.7872  | 450  | 0.0156        | -               |
| 5.3191  | 500  | 0.004         | -               |
| 5.8511  | 550  | 0.0002        | -               |
| 6.3830  | 600  | 0.0001        | -               |
| 6.9149  | 650  | 0.0001        | -               |
| 7.4468  | 700  | 0.0001        | -               |
| 7.9787  | 750  | 0.0001        | -               |
| 8.5106  | 800  | 0.0001        | -               |
| 9.0426  | 850  | 0.0001        | -               |
| 9.5745  | 900  | 0.0001        | -               |
| 10.1064 | 950  | 0.0001        | -               |
| 10.6383 | 1000 | 0.0001        | -               |
| 11.1702 | 1050 | 0.0001        | -               |
| 11.7021 | 1100 | 0.0           | -               |
| 12.2340 | 1150 | 0.0001        | -               |
| 12.7660 | 1200 | 0.0001        | -               |
| 13.2979 | 1250 | 0.0           | -               |
| 13.8298 | 1300 | 0.0           | -               |
| 14.3617 | 1350 | 0.0001        | -               |
| 14.8936 | 1400 | 0.0           | -               |
| 15.4255 | 1450 | 0.0           | -               |
| 15.9574 | 1500 | 0.0001        | -               |
| 16.4894 | 1550 | 0.0           | -               |
| 17.0213 | 1600 | 0.0001        | -               |
| 17.5532 | 1650 | 0.0           | -               |
| 18.0851 | 1700 | 0.0           | -               |
| 18.6170 | 1750 | 0.0           | -               |
| 19.1489 | 1800 | 0.0           | -               |
| 19.6809 | 1850 | 0.0           | -               |

### Framework Versions
- Python: 3.10.12
- SetFit: 1.1.0.dev0
- Sentence Transformers: 3.1.1
- Transformers: 4.46.1
- PyTorch: 2.4.0+cu121
- Datasets: 2.20.0
- Tokenizers: 0.20.0

## Citation

### BibTeX
```bibtex
@article{https://doi.org/10.48550/arxiv.2209.11055,
    doi = {10.48550/ARXIV.2209.11055},
    url = {https://arxiv.org/abs/2209.11055},
    author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
    keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
    title = {Efficient Few-Shot Learning Without Prompts},
    publisher = {arXiv},
    year = {2022},
    copyright = {Creative Commons Attribution 4.0 International}
}
```

<!--
## Glossary

*Clearly define terms in order to be accessible across audiences.*
-->

<!--
## Model Card Authors

*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->

<!--
## Model Card Contact

*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->