tmmazen commited on
Commit
e4e6cc2
1 Parent(s): 98b3eb7

Add new SentenceTransformer model.

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": true,
4
+ "pooling_mode_mean_tokens": false,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,818 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ base_model: BAAI/bge-base-en-v1.5
3
+ language:
4
+ - en
5
+ library_name: sentence-transformers
6
+ license: apache-2.0
7
+ metrics:
8
+ - cosine_accuracy@1
9
+ - cosine_accuracy@3
10
+ - cosine_accuracy@5
11
+ - cosine_accuracy@10
12
+ - cosine_precision@1
13
+ - cosine_precision@3
14
+ - cosine_precision@5
15
+ - cosine_precision@10
16
+ - cosine_recall@1
17
+ - cosine_recall@3
18
+ - cosine_recall@5
19
+ - cosine_recall@10
20
+ - cosine_ndcg@10
21
+ - cosine_mrr@10
22
+ - cosine_map@100
23
+ pipeline_tag: sentence-similarity
24
+ tags:
25
+ - sentence-transformers
26
+ - sentence-similarity
27
+ - feature-extraction
28
+ - generated_from_trainer
29
+ - dataset_size:806
30
+ - loss:MatryoshkaLoss
31
+ - loss:MultipleNegativesRankingLoss
32
+ widget:
33
+ - source_sentence: La posologie habituelle est de 1 à 2 g de plante séchée par tasse
34
+ d’eau bouillante, en infusion, plusieurs fois par jour, ou l’équivalent en herbe
35
+ fraîche. Pour la prise en extrait liquide (sirop), la posologie est calculée en
36
+ fonction de la concentration en principes actifs. Une tisane de thym ou une goutte
37
+ d’huile essentielle diluée dans un bol d’eau chaude peuvent également être utilisées
38
+ en inhalation pour dégager les voies respiratoires. Des infusions plus concentrées
39
+ (5 g de plante sèche pour 100 ml d’eau) sont employées en gargarisme ou en bain
40
+ de bouche. Les mélanges feuilles de thym / racine de primevère sont à utiliser
41
+ selon les recommandations de la notice du produit.
42
+ sentences:
43
+ - La plante Bourdaine est-elle sans danger pendant la grossesse et l'allaitement?
44
+ - Quelles sont les formes et le dosage recommandés pour la plante Thym?
45
+ - Quel est l'avis d'un expert sur la plante Valériane?
46
+ - source_sentence: L’allergie reconnue au fenouil ou à l’anéthol, ou à toute plante
47
+ apparentée comme le céleri, le cumin, la coriandre, l’anis vert ou l’aneth, en
48
+ contre-indique l’utilisation. Les personnes allergiques aux plantes de la famille
49
+ des astéracées (anciennement famille des composées) comme l’armoise, l’ambroisie
50
+ ou la camomille, doivent également utiliser le fenouil avec prudence. De plus,
51
+ les femmes qui souffrent ou ont souffert de cancer hormonodépendant (cancer du
52
+ sein, des ovaires ou de l'utérus) doivent s'abstenir de prendre un traitement
53
+ à base de fenouil, du fait des propriétés estrogéniques de cette plante.
54
+ sentences:
55
+ - Quelle est la description de la plante Saule blanc?
56
+ - Quelles sont les contre-indications pour la plante Petite centaurée?
57
+ - Quelles sont les contre-indications pour la plante Fenouil?
58
+ - source_sentence: En tisane, la dose recommandée est de 3 g de graines écrasées en
59
+ infusion, dans 150 ml d’eau frémissante, trois fois par jour. Pour soulager des
60
+ troubles digestifs, il est possible de mâcher une petite cuillerée de graines
61
+ à la fin du repas. L’huile essentielle d’anis vert peut être utilisée en inhalation
62
+ lors de rhume ou de bronchite. Il suffit de diluer quelques gouttes d’huile essentielle
63
+ dans un bol d’eau bouillante et d’inhaler les vapeurs. Dans tous les cas, si les
64
+ symptômes persistent au-delà de 48 heures, une consultation médicale est nécessaire.
65
+ sentences:
66
+ - Quelles sont les formes et le dosage recommandés pour la plante Anis vert?
67
+ - Quelle est la description de la plante Fenouil?
68
+ - Comment utiliser la plante Valériane?
69
+ - source_sentence: Les produits à base de lierre grimpant pourraient interagir avec
70
+ les médicaments de la toux (antitussifs).
71
+ sentences:
72
+ - Quelles sont les interactions possibles de la plante Lierre grimpant avec d’autres
73
+ substances?
74
+ - Quelles sont les contre-indications pour la plante Ginseng?
75
+ - Que pensent les autorités de santé de la plante Bouillon-blanc?
76
+ - source_sentence: Les personnes qui prennent des anticoagulants (fluidifiants du
77
+ sang) devraient s’abstenir de consommer de grandes quantités de canneberge. De
78
+ plus, il est préférable de ne pas prendre de fortes doses de canneberge avec d’autres
79
+ plantes anticoagulantes (par exemple l’ail, le ginkgo, le ginseng, l’éleuthérocoque,
80
+ le saule blanc, le kava, la fève tonka, etc.), ni avec des produits contenant
81
+ des acides gras oméga-3. La canneberge pourrait également interagir avec les médicaments
82
+ prescrits pour lutter contre les brûlures d’estomac (antihistaminiques H2 et inhibiteurs
83
+ de la pompe à protons).
84
+ sentences:
85
+ - Quelle est l'efficacité de la plante Bouillon-blanc?
86
+ - Quelle est l'origine et quels sont les usages de la plante Petite centaurée?
87
+ - Quelles sont les interactions possibles de la plante Canneberge ou cranberry avec
88
+ d’autres substances?
89
+ model-index:
90
+ - name: BGE base Financial Matryoshka
91
+ results:
92
+ - task:
93
+ type: information-retrieval
94
+ name: Information Retrieval
95
+ dataset:
96
+ name: dim 768
97
+ type: dim_768
98
+ metrics:
99
+ - type: cosine_accuracy@1
100
+ value: 0.32222222222222224
101
+ name: Cosine Accuracy@1
102
+ - type: cosine_accuracy@3
103
+ value: 0.5
104
+ name: Cosine Accuracy@3
105
+ - type: cosine_accuracy@5
106
+ value: 0.6333333333333333
107
+ name: Cosine Accuracy@5
108
+ - type: cosine_accuracy@10
109
+ value: 0.8111111111111111
110
+ name: Cosine Accuracy@10
111
+ - type: cosine_precision@1
112
+ value: 0.32222222222222224
113
+ name: Cosine Precision@1
114
+ - type: cosine_precision@3
115
+ value: 0.16666666666666666
116
+ name: Cosine Precision@3
117
+ - type: cosine_precision@5
118
+ value: 0.12666666666666665
119
+ name: Cosine Precision@5
120
+ - type: cosine_precision@10
121
+ value: 0.0811111111111111
122
+ name: Cosine Precision@10
123
+ - type: cosine_recall@1
124
+ value: 0.32222222222222224
125
+ name: Cosine Recall@1
126
+ - type: cosine_recall@3
127
+ value: 0.5
128
+ name: Cosine Recall@3
129
+ - type: cosine_recall@5
130
+ value: 0.6333333333333333
131
+ name: Cosine Recall@5
132
+ - type: cosine_recall@10
133
+ value: 0.8111111111111111
134
+ name: Cosine Recall@10
135
+ - type: cosine_ndcg@10
136
+ value: 0.5423585397564108
137
+ name: Cosine Ndcg@10
138
+ - type: cosine_mrr@10
139
+ value: 0.4590123456790124
140
+ name: Cosine Mrr@10
141
+ - type: cosine_map@100
142
+ value: 0.4692052653121261
143
+ name: Cosine Map@100
144
+ - task:
145
+ type: information-retrieval
146
+ name: Information Retrieval
147
+ dataset:
148
+ name: dim 512
149
+ type: dim_512
150
+ metrics:
151
+ - type: cosine_accuracy@1
152
+ value: 0.28888888888888886
153
+ name: Cosine Accuracy@1
154
+ - type: cosine_accuracy@3
155
+ value: 0.5
156
+ name: Cosine Accuracy@3
157
+ - type: cosine_accuracy@5
158
+ value: 0.6333333333333333
159
+ name: Cosine Accuracy@5
160
+ - type: cosine_accuracy@10
161
+ value: 0.8333333333333334
162
+ name: Cosine Accuracy@10
163
+ - type: cosine_precision@1
164
+ value: 0.28888888888888886
165
+ name: Cosine Precision@1
166
+ - type: cosine_precision@3
167
+ value: 0.16666666666666666
168
+ name: Cosine Precision@3
169
+ - type: cosine_precision@5
170
+ value: 0.12666666666666665
171
+ name: Cosine Precision@5
172
+ - type: cosine_precision@10
173
+ value: 0.08333333333333331
174
+ name: Cosine Precision@10
175
+ - type: cosine_recall@1
176
+ value: 0.28888888888888886
177
+ name: Cosine Recall@1
178
+ - type: cosine_recall@3
179
+ value: 0.5
180
+ name: Cosine Recall@3
181
+ - type: cosine_recall@5
182
+ value: 0.6333333333333333
183
+ name: Cosine Recall@5
184
+ - type: cosine_recall@10
185
+ value: 0.8333333333333334
186
+ name: Cosine Recall@10
187
+ - type: cosine_ndcg@10
188
+ value: 0.5318522788264519
189
+ name: Cosine Ndcg@10
190
+ - type: cosine_mrr@10
191
+ value: 0.4391534391534392
192
+ name: Cosine Mrr@10
193
+ - type: cosine_map@100
194
+ value: 0.448465509528844
195
+ name: Cosine Map@100
196
+ - task:
197
+ type: information-retrieval
198
+ name: Information Retrieval
199
+ dataset:
200
+ name: dim 256
201
+ type: dim_256
202
+ metrics:
203
+ - type: cosine_accuracy@1
204
+ value: 0.3
205
+ name: Cosine Accuracy@1
206
+ - type: cosine_accuracy@3
207
+ value: 0.5
208
+ name: Cosine Accuracy@3
209
+ - type: cosine_accuracy@5
210
+ value: 0.6222222222222222
211
+ name: Cosine Accuracy@5
212
+ - type: cosine_accuracy@10
213
+ value: 0.8333333333333334
214
+ name: Cosine Accuracy@10
215
+ - type: cosine_precision@1
216
+ value: 0.3
217
+ name: Cosine Precision@1
218
+ - type: cosine_precision@3
219
+ value: 0.16666666666666666
220
+ name: Cosine Precision@3
221
+ - type: cosine_precision@5
222
+ value: 0.12444444444444444
223
+ name: Cosine Precision@5
224
+ - type: cosine_precision@10
225
+ value: 0.08333333333333331
226
+ name: Cosine Precision@10
227
+ - type: cosine_recall@1
228
+ value: 0.3
229
+ name: Cosine Recall@1
230
+ - type: cosine_recall@3
231
+ value: 0.5
232
+ name: Cosine Recall@3
233
+ - type: cosine_recall@5
234
+ value: 0.6222222222222222
235
+ name: Cosine Recall@5
236
+ - type: cosine_recall@10
237
+ value: 0.8333333333333334
238
+ name: Cosine Recall@10
239
+ - type: cosine_ndcg@10
240
+ value: 0.5412674141664099
241
+ name: Cosine Ndcg@10
242
+ - type: cosine_mrr@10
243
+ value: 0.4508994708994711
244
+ name: Cosine Mrr@10
245
+ - type: cosine_map@100
246
+ value: 0.4591974099649539
247
+ name: Cosine Map@100
248
+ - task:
249
+ type: information-retrieval
250
+ name: Information Retrieval
251
+ dataset:
252
+ name: dim 128
253
+ type: dim_128
254
+ metrics:
255
+ - type: cosine_accuracy@1
256
+ value: 0.2777777777777778
257
+ name: Cosine Accuracy@1
258
+ - type: cosine_accuracy@3
259
+ value: 0.4888888888888889
260
+ name: Cosine Accuracy@3
261
+ - type: cosine_accuracy@5
262
+ value: 0.6111111111111112
263
+ name: Cosine Accuracy@5
264
+ - type: cosine_accuracy@10
265
+ value: 0.8111111111111111
266
+ name: Cosine Accuracy@10
267
+ - type: cosine_precision@1
268
+ value: 0.2777777777777778
269
+ name: Cosine Precision@1
270
+ - type: cosine_precision@3
271
+ value: 0.16296296296296295
272
+ name: Cosine Precision@3
273
+ - type: cosine_precision@5
274
+ value: 0.1222222222222222
275
+ name: Cosine Precision@5
276
+ - type: cosine_precision@10
277
+ value: 0.0811111111111111
278
+ name: Cosine Precision@10
279
+ - type: cosine_recall@1
280
+ value: 0.2777777777777778
281
+ name: Cosine Recall@1
282
+ - type: cosine_recall@3
283
+ value: 0.4888888888888889
284
+ name: Cosine Recall@3
285
+ - type: cosine_recall@5
286
+ value: 0.6111111111111112
287
+ name: Cosine Recall@5
288
+ - type: cosine_recall@10
289
+ value: 0.8111111111111111
290
+ name: Cosine Recall@10
291
+ - type: cosine_ndcg@10
292
+ value: 0.5157896241121187
293
+ name: Cosine Ndcg@10
294
+ - type: cosine_mrr@10
295
+ value: 0.4248500881834215
296
+ name: Cosine Mrr@10
297
+ - type: cosine_map@100
298
+ value: 0.4341048300656952
299
+ name: Cosine Map@100
300
+ - task:
301
+ type: information-retrieval
302
+ name: Information Retrieval
303
+ dataset:
304
+ name: dim 64
305
+ type: dim_64
306
+ metrics:
307
+ - type: cosine_accuracy@1
308
+ value: 0.2
309
+ name: Cosine Accuracy@1
310
+ - type: cosine_accuracy@3
311
+ value: 0.37777777777777777
312
+ name: Cosine Accuracy@3
313
+ - type: cosine_accuracy@5
314
+ value: 0.5444444444444444
315
+ name: Cosine Accuracy@5
316
+ - type: cosine_accuracy@10
317
+ value: 0.7444444444444445
318
+ name: Cosine Accuracy@10
319
+ - type: cosine_precision@1
320
+ value: 0.2
321
+ name: Cosine Precision@1
322
+ - type: cosine_precision@3
323
+ value: 0.1259259259259259
324
+ name: Cosine Precision@3
325
+ - type: cosine_precision@5
326
+ value: 0.10888888888888888
327
+ name: Cosine Precision@5
328
+ - type: cosine_precision@10
329
+ value: 0.07444444444444444
330
+ name: Cosine Precision@10
331
+ - type: cosine_recall@1
332
+ value: 0.2
333
+ name: Cosine Recall@1
334
+ - type: cosine_recall@3
335
+ value: 0.37777777777777777
336
+ name: Cosine Recall@3
337
+ - type: cosine_recall@5
338
+ value: 0.5444444444444444
339
+ name: Cosine Recall@5
340
+ - type: cosine_recall@10
341
+ value: 0.7444444444444445
342
+ name: Cosine Recall@10
343
+ - type: cosine_ndcg@10
344
+ value: 0.4349093331984765
345
+ name: Cosine Ndcg@10
346
+ - type: cosine_mrr@10
347
+ value: 0.3400573192239858
348
+ name: Cosine Mrr@10
349
+ - type: cosine_map@100
350
+ value: 0.35002712945861025
351
+ name: Cosine Map@100
352
+ ---
353
+
354
+ # BGE base Financial Matryoshka
355
+
356
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [BAAI/bge-base-en-v1.5](https://huggingface.co/BAAI/bge-base-en-v1.5) on the json dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
357
+
358
+ ## Model Details
359
+
360
+ ### Model Description
361
+ - **Model Type:** Sentence Transformer
362
+ - **Base model:** [BAAI/bge-base-en-v1.5](https://huggingface.co/BAAI/bge-base-en-v1.5) <!-- at revision a5beb1e3e68b9ab74eb54cfd186867f64f240e1a -->
363
+ - **Maximum Sequence Length:** 512 tokens
364
+ - **Output Dimensionality:** 768 tokens
365
+ - **Similarity Function:** Cosine Similarity
366
+ - **Training Dataset:**
367
+ - json
368
+ - **Language:** en
369
+ - **License:** apache-2.0
370
+
371
+ ### Model Sources
372
+
373
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
374
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
375
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
376
+
377
+ ### Full Model Architecture
378
+
379
+ ```
380
+ SentenceTransformer(
381
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': True}) with Transformer model: BertModel
382
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
383
+ (2): Normalize()
384
+ )
385
+ ```
386
+
387
+ ## Usage
388
+
389
+ ### Direct Usage (Sentence Transformers)
390
+
391
+ First install the Sentence Transformers library:
392
+
393
+ ```bash
394
+ pip install -U sentence-transformers
395
+ ```
396
+
397
+ Then you can load this model and run inference.
398
+ ```python
399
+ from sentence_transformers import SentenceTransformer
400
+
401
+ # Download from the 🤗 Hub
402
+ model = SentenceTransformer("tmmazen/bge-base-st-phyto")
403
+ # Run inference
404
+ sentences = [
405
+ 'Les personnes qui prennent des anticoagulants (fluidifiants du sang) devraient s’abstenir de consommer de grandes quantités de canneberge. De plus, il est préférable de ne pas prendre de fortes doses de canneberge avec d’autres plantes anticoagulantes (par exemple l’ail, le ginkgo, le ginseng, l’éleuthérocoque, le saule blanc, le kava, la fève tonka, etc.), ni avec des produits contenant des acides gras oméga-3. La canneberge pourrait également interagir avec les médicaments prescrits pour lutter contre les brûlures d’estomac (antihistaminiques H2 et inhibiteurs de la pompe à protons).',
406
+ 'Quelles sont les interactions possibles de la plante Canneberge ou cranberry avec d’autres substances?',
407
+ "Quelle est l'efficacité de la plante Bouillon-blanc?",
408
+ ]
409
+ embeddings = model.encode(sentences)
410
+ print(embeddings.shape)
411
+ # [3, 768]
412
+
413
+ # Get the similarity scores for the embeddings
414
+ similarities = model.similarity(embeddings, embeddings)
415
+ print(similarities.shape)
416
+ # [3, 3]
417
+ ```
418
+
419
+ <!--
420
+ ### Direct Usage (Transformers)
421
+
422
+ <details><summary>Click to see the direct usage in Transformers</summary>
423
+
424
+ </details>
425
+ -->
426
+
427
+ <!--
428
+ ### Downstream Usage (Sentence Transformers)
429
+
430
+ You can finetune this model on your own dataset.
431
+
432
+ <details><summary>Click to expand</summary>
433
+
434
+ </details>
435
+ -->
436
+
437
+ <!--
438
+ ### Out-of-Scope Use
439
+
440
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
441
+ -->
442
+
443
+ ## Evaluation
444
+
445
+ ### Metrics
446
+
447
+ #### Information Retrieval
448
+ * Dataset: `dim_768`
449
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
450
+
451
+ | Metric | Value |
452
+ |:--------------------|:-----------|
453
+ | cosine_accuracy@1 | 0.3222 |
454
+ | cosine_accuracy@3 | 0.5 |
455
+ | cosine_accuracy@5 | 0.6333 |
456
+ | cosine_accuracy@10 | 0.8111 |
457
+ | cosine_precision@1 | 0.3222 |
458
+ | cosine_precision@3 | 0.1667 |
459
+ | cosine_precision@5 | 0.1267 |
460
+ | cosine_precision@10 | 0.0811 |
461
+ | cosine_recall@1 | 0.3222 |
462
+ | cosine_recall@3 | 0.5 |
463
+ | cosine_recall@5 | 0.6333 |
464
+ | cosine_recall@10 | 0.8111 |
465
+ | cosine_ndcg@10 | 0.5424 |
466
+ | cosine_mrr@10 | 0.459 |
467
+ | **cosine_map@100** | **0.4692** |
468
+
469
+ #### Information Retrieval
470
+ * Dataset: `dim_512`
471
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
472
+
473
+ | Metric | Value |
474
+ |:--------------------|:-----------|
475
+ | cosine_accuracy@1 | 0.2889 |
476
+ | cosine_accuracy@3 | 0.5 |
477
+ | cosine_accuracy@5 | 0.6333 |
478
+ | cosine_accuracy@10 | 0.8333 |
479
+ | cosine_precision@1 | 0.2889 |
480
+ | cosine_precision@3 | 0.1667 |
481
+ | cosine_precision@5 | 0.1267 |
482
+ | cosine_precision@10 | 0.0833 |
483
+ | cosine_recall@1 | 0.2889 |
484
+ | cosine_recall@3 | 0.5 |
485
+ | cosine_recall@5 | 0.6333 |
486
+ | cosine_recall@10 | 0.8333 |
487
+ | cosine_ndcg@10 | 0.5319 |
488
+ | cosine_mrr@10 | 0.4392 |
489
+ | **cosine_map@100** | **0.4485** |
490
+
491
+ #### Information Retrieval
492
+ * Dataset: `dim_256`
493
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
494
+
495
+ | Metric | Value |
496
+ |:--------------------|:-----------|
497
+ | cosine_accuracy@1 | 0.3 |
498
+ | cosine_accuracy@3 | 0.5 |
499
+ | cosine_accuracy@5 | 0.6222 |
500
+ | cosine_accuracy@10 | 0.8333 |
501
+ | cosine_precision@1 | 0.3 |
502
+ | cosine_precision@3 | 0.1667 |
503
+ | cosine_precision@5 | 0.1244 |
504
+ | cosine_precision@10 | 0.0833 |
505
+ | cosine_recall@1 | 0.3 |
506
+ | cosine_recall@3 | 0.5 |
507
+ | cosine_recall@5 | 0.6222 |
508
+ | cosine_recall@10 | 0.8333 |
509
+ | cosine_ndcg@10 | 0.5413 |
510
+ | cosine_mrr@10 | 0.4509 |
511
+ | **cosine_map@100** | **0.4592** |
512
+
513
+ #### Information Retrieval
514
+ * Dataset: `dim_128`
515
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
516
+
517
+ | Metric | Value |
518
+ |:--------------------|:-----------|
519
+ | cosine_accuracy@1 | 0.2778 |
520
+ | cosine_accuracy@3 | 0.4889 |
521
+ | cosine_accuracy@5 | 0.6111 |
522
+ | cosine_accuracy@10 | 0.8111 |
523
+ | cosine_precision@1 | 0.2778 |
524
+ | cosine_precision@3 | 0.163 |
525
+ | cosine_precision@5 | 0.1222 |
526
+ | cosine_precision@10 | 0.0811 |
527
+ | cosine_recall@1 | 0.2778 |
528
+ | cosine_recall@3 | 0.4889 |
529
+ | cosine_recall@5 | 0.6111 |
530
+ | cosine_recall@10 | 0.8111 |
531
+ | cosine_ndcg@10 | 0.5158 |
532
+ | cosine_mrr@10 | 0.4249 |
533
+ | **cosine_map@100** | **0.4341** |
534
+
535
+ #### Information Retrieval
536
+ * Dataset: `dim_64`
537
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
538
+
539
+ | Metric | Value |
540
+ |:--------------------|:---------|
541
+ | cosine_accuracy@1 | 0.2 |
542
+ | cosine_accuracy@3 | 0.3778 |
543
+ | cosine_accuracy@5 | 0.5444 |
544
+ | cosine_accuracy@10 | 0.7444 |
545
+ | cosine_precision@1 | 0.2 |
546
+ | cosine_precision@3 | 0.1259 |
547
+ | cosine_precision@5 | 0.1089 |
548
+ | cosine_precision@10 | 0.0744 |
549
+ | cosine_recall@1 | 0.2 |
550
+ | cosine_recall@3 | 0.3778 |
551
+ | cosine_recall@5 | 0.5444 |
552
+ | cosine_recall@10 | 0.7444 |
553
+ | cosine_ndcg@10 | 0.4349 |
554
+ | cosine_mrr@10 | 0.3401 |
555
+ | **cosine_map@100** | **0.35** |
556
+
557
+ <!--
558
+ ## Bias, Risks and Limitations
559
+
560
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
561
+ -->
562
+
563
+ <!--
564
+ ### Recommendations
565
+
566
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
567
+ -->
568
+
569
+ ## Training Details
570
+
571
+ ### Training Dataset
572
+
573
+ #### json
574
+
575
+ * Dataset: json
576
+ * Size: 806 training samples
577
+ * Columns: <code>positive</code> and <code>anchor</code>
578
+ * Approximate statistics based on the first 806 samples:
579
+ | | positive | anchor |
580
+ |:--------|:------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|
581
+ | type | string | string |
582
+ | details | <ul><li>min: 3 tokens</li><li>mean: 206.94 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 10 tokens</li><li>mean: 21.83 tokens</li><li>max: 41 tokens</li></ul> |
583
+ * Samples:
584
+ | positive | anchor |
585
+ |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
586
+ | <code>Les études cliniques évaluant les propriétés thérapeutiques de l’ortie sont nombreuses et portent sur un grand nombre de patients. Les propriétés diurétiques des feuilles ont été étudiées au cours d’au moins cinq essais cliniques portant sur plus de 10 000 patients. Malheureusement, dans la plupart des cas, ces études ne faisaient pas appel à un placebo et leurs résultats, plutôt favorables à cet effet diurétique, sont entachés d’incertitude. De la même manière, la demi-douzaine d’essais cliniques évaluant les effets de la racine d’ortie sur l’adénome de la prostate, et portant sur plus de 16 000 hommes, est de si mauvaise qualité méthodologique qu’il est impossible d’être certain des effets observés. Pour résumer, on peut dire que si les études existantes pointent vers une efficacité de la racine d’ortie, elles n’en apportent pas la preuve scientifique. Une petite étude contre placebo suggère une certaine efficacité des feuilles d’ortie pour soulager les symptômes de la rhinite allergique. Enfin, aucune étude ne justifie son usage pour améliorer l’aspect des cheveux et des ongles, ou pour soulager les douleurs articulaires. ... l’EMA Si l’Agence européenne du médicament considère comme « traditionnellement établi » l’usage des feuilles d’ortie comme « traitement diurétique complémentaire des infections urinaires » et comme « traitement complémentaire des douleurs articulaires et de la séborrhée », elle se refuse à qualifier l’usage de la racine d’ortie. L'EMA considère que les études ne sont pas concluantes et que, l'HBP étant une maladie qui doit être traitée médicalement, la racine d'ortie ne peut pas être considérée comme un traitement traditionnel de cette pathologie. ... l’OMS L’Organisation mondiale de la santé reconnaît comme « cliniquement établi » l’usage de la racine d’ortie « dans le traitement des problèmes d’émission d’urine liés à l’HBP légère à modérée, lorsque l’absence de cancer de la prostate est avérée ». Elle considère comme « traditionnel » l’usage de la racine d’ortie comme « diurétique, et pour soulager les douleurs rhumatismales et la sciatique ». ... la Commission E La Commission E du ministère de la Santé allemand reconnaît l’usage des feuilles d’ortie comme « traitement complémentaire des douleurs articulaires et, en tant que diurétique, comme traitement complémentaire des infections et des calculs urinaires ». Elle admet l’usage de la racine d’ortie « dans le traitement symptomatique des troubles de la prostate mineurs ou modérés, en augmentant le flux urinaire et en diminuant la quantité d’urine restant dans la vessie ». ... l’ESCOP La Coopération scientifique européenne en phytothérapie reconnaît l’usage des feuilles d’ortie comme « traitement symptomatique de l’arthrose et des douleurs articulaires », et comme « diurétique dans les infections urinaires, malgré l’absence de preuves d’efficacité après administration par voie orale ». Elle admet l’usage de la racine d’ortie « dans le traitement symptomatique des problèmes d’émission d’urine liés aux troubles de la prostate, mineurs ou modérés ».</code> | <code>Quelle est l'efficacité de la plante Ortie dioïque?</code> |
587
+ | <code>D’après des essais in vitro (dans le tube à essai), l’extrait aqueux de mélisse pourrait inhiber la TSH, une hormone qui stimule la glande thyroïde. Cependant, aucun effet indésirable de type thyroïdien n’a été décrit. Néanmoins, les personnes qui souffrent de maladie de la thyroïde doivent utiliser la mélisse avec prudence.</code> | <code>Quelles sont les contre-indications pour la plante Mélisse?</code> |
588
+ | <code> L’absinthe (Artemisia absinthium) pousse dans les zones tempérées d’Europe, d’Amérique et d’Asie. Au moment de la floraison, on en récolte les feuilles et les sommités fleuries pour les faire sécher. Pendant longtemps, la poudre d’absinthe a été mélangée à l’encre des copistes pour protéger les manuscrits contre les attaques des insectes mangeurs de papier. L’absinthe a également servi à la fabrication d’une boisson alcoolisée très populaire au XIXe siècle, dont l’usage abusif provoquait des hallucinations, de la démence et des convulsions. Depuis 2005, les alcools à base d’absinthe sont de nouveau autorisés à la vente à condition de contenir moins de 35 mg de thuyone par litre. En phytothérapie, l’absinthe est utilisée pour ouvrir l’appétit et aider les digestions difficiles. En application locale, elle est proposée pour aider à la cicatrisation des plaies. Les autres usages traditionnels de l’absinthe<br><br><br>L’absinthe a également été utilisée comme sédatif, ainsi que pour faire baisser la fièvre, éliminer les vers intestinaux et lutter contre l’anémie.</code> | <code>Quelle est l'origine et quels sont les usages de la plante Absinthe?</code> |
589
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
590
+ ```json
591
+ {
592
+ "loss": "MultipleNegativesRankingLoss",
593
+ "matryoshka_dims": [
594
+ 768,
595
+ 512,
596
+ 256,
597
+ 128,
598
+ 64
599
+ ],
600
+ "matryoshka_weights": [
601
+ 1,
602
+ 1,
603
+ 1,
604
+ 1,
605
+ 1
606
+ ],
607
+ "n_dims_per_step": -1
608
+ }
609
+ ```
610
+
611
+ ### Training Hyperparameters
612
+ #### Non-Default Hyperparameters
613
+
614
+ - `eval_strategy`: epoch
615
+ - `per_device_train_batch_size`: 16
616
+ - `per_device_eval_batch_size`: 16
617
+ - `gradient_accumulation_steps`: 16
618
+ - `learning_rate`: 1e-05
619
+ - `num_train_epochs`: 4
620
+ - `lr_scheduler_type`: cosine
621
+ - `warmup_ratio`: 0.1
622
+ - `fp16`: True
623
+ - `load_best_model_at_end`: True
624
+ - `optim`: adamw_torch_fused
625
+ - `batch_sampler`: no_duplicates
626
+
627
+ #### All Hyperparameters
628
+ <details><summary>Click to expand</summary>
629
+
630
+ - `overwrite_output_dir`: False
631
+ - `do_predict`: False
632
+ - `eval_strategy`: epoch
633
+ - `prediction_loss_only`: True
634
+ - `per_device_train_batch_size`: 16
635
+ - `per_device_eval_batch_size`: 16
636
+ - `per_gpu_train_batch_size`: None
637
+ - `per_gpu_eval_batch_size`: None
638
+ - `gradient_accumulation_steps`: 16
639
+ - `eval_accumulation_steps`: None
640
+ - `learning_rate`: 1e-05
641
+ - `weight_decay`: 0.0
642
+ - `adam_beta1`: 0.9
643
+ - `adam_beta2`: 0.999
644
+ - `adam_epsilon`: 1e-08
645
+ - `max_grad_norm`: 1.0
646
+ - `num_train_epochs`: 4
647
+ - `max_steps`: -1
648
+ - `lr_scheduler_type`: cosine
649
+ - `lr_scheduler_kwargs`: {}
650
+ - `warmup_ratio`: 0.1
651
+ - `warmup_steps`: 0
652
+ - `log_level`: passive
653
+ - `log_level_replica`: warning
654
+ - `log_on_each_node`: True
655
+ - `logging_nan_inf_filter`: True
656
+ - `save_safetensors`: True
657
+ - `save_on_each_node`: False
658
+ - `save_only_model`: False
659
+ - `restore_callback_states_from_checkpoint`: False
660
+ - `no_cuda`: False
661
+ - `use_cpu`: False
662
+ - `use_mps_device`: False
663
+ - `seed`: 42
664
+ - `data_seed`: None
665
+ - `jit_mode_eval`: False
666
+ - `use_ipex`: False
667
+ - `bf16`: False
668
+ - `fp16`: True
669
+ - `fp16_opt_level`: O1
670
+ - `half_precision_backend`: auto
671
+ - `bf16_full_eval`: False
672
+ - `fp16_full_eval`: False
673
+ - `tf32`: None
674
+ - `local_rank`: 0
675
+ - `ddp_backend`: None
676
+ - `tpu_num_cores`: None
677
+ - `tpu_metrics_debug`: False
678
+ - `debug`: []
679
+ - `dataloader_drop_last`: False
680
+ - `dataloader_num_workers`: 0
681
+ - `dataloader_prefetch_factor`: None
682
+ - `past_index`: -1
683
+ - `disable_tqdm`: False
684
+ - `remove_unused_columns`: True
685
+ - `label_names`: None
686
+ - `load_best_model_at_end`: True
687
+ - `ignore_data_skip`: False
688
+ - `fsdp`: []
689
+ - `fsdp_min_num_params`: 0
690
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
691
+ - `fsdp_transformer_layer_cls_to_wrap`: None
692
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
693
+ - `deepspeed`: None
694
+ - `label_smoothing_factor`: 0.0
695
+ - `optim`: adamw_torch_fused
696
+ - `optim_args`: None
697
+ - `adafactor`: False
698
+ - `group_by_length`: False
699
+ - `length_column_name`: length
700
+ - `ddp_find_unused_parameters`: None
701
+ - `ddp_bucket_cap_mb`: None
702
+ - `ddp_broadcast_buffers`: False
703
+ - `dataloader_pin_memory`: True
704
+ - `dataloader_persistent_workers`: False
705
+ - `skip_memory_metrics`: True
706
+ - `use_legacy_prediction_loop`: False
707
+ - `push_to_hub`: False
708
+ - `resume_from_checkpoint`: None
709
+ - `hub_model_id`: None
710
+ - `hub_strategy`: every_save
711
+ - `hub_private_repo`: False
712
+ - `hub_always_push`: False
713
+ - `gradient_checkpointing`: False
714
+ - `gradient_checkpointing_kwargs`: None
715
+ - `include_inputs_for_metrics`: False
716
+ - `eval_do_concat_batches`: True
717
+ - `fp16_backend`: auto
718
+ - `push_to_hub_model_id`: None
719
+ - `push_to_hub_organization`: None
720
+ - `mp_parameters`:
721
+ - `auto_find_batch_size`: False
722
+ - `full_determinism`: False
723
+ - `torchdynamo`: None
724
+ - `ray_scope`: last
725
+ - `ddp_timeout`: 1800
726
+ - `torch_compile`: False
727
+ - `torch_compile_backend`: None
728
+ - `torch_compile_mode`: None
729
+ - `dispatch_batches`: None
730
+ - `split_batches`: None
731
+ - `include_tokens_per_second`: False
732
+ - `include_num_input_tokens_seen`: False
733
+ - `neftune_noise_alpha`: None
734
+ - `optim_target_modules`: None
735
+ - `batch_eval_metrics`: False
736
+ - `batch_sampler`: no_duplicates
737
+ - `multi_dataset_batch_sampler`: proportional
738
+
739
+ </details>
740
+
741
+ ### Training Logs
742
+ | Epoch | Step | Training Loss | dim_128_cosine_map@100 | dim_256_cosine_map@100 | dim_512_cosine_map@100 | dim_64_cosine_map@100 | dim_768_cosine_map@100 |
743
+ |:----------:|:------:|:-------------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|:----------------------:|
744
+ | 0.9412 | 3 | - | 0.2476 | 0.2681 | 0.2813 | 0.2090 | 0.3067 |
745
+ | 1.8824 | 6 | - | 0.3945 | 0.4313 | 0.4189 | 0.3002 | 0.4526 |
746
+ | 2.8235 | 9 | - | 0.4301 | 0.4536 | 0.4456 | 0.3390 | 0.4674 |
747
+ | 3.1373 | 10 | 6.0243 | - | - | - | - | - |
748
+ | **3.7647** | **12** | **-** | **0.4341** | **0.4592** | **0.4485** | **0.35** | **0.4692** |
749
+
750
+ * The bold row denotes the saved checkpoint.
751
+
752
+ ### Framework Versions
753
+ - Python: 3.10.12
754
+ - Sentence Transformers: 3.1.0
755
+ - Transformers: 4.41.2
756
+ - PyTorch: 2.1.2+cu121
757
+ - Accelerate: 0.33.0
758
+ - Datasets: 2.19.1
759
+ - Tokenizers: 0.19.1
760
+
761
+ ## Citation
762
+
763
+ ### BibTeX
764
+
765
+ #### Sentence Transformers
766
+ ```bibtex
767
+ @inproceedings{reimers-2019-sentence-bert,
768
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
769
+ author = "Reimers, Nils and Gurevych, Iryna",
770
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
771
+ month = "11",
772
+ year = "2019",
773
+ publisher = "Association for Computational Linguistics",
774
+ url = "https://arxiv.org/abs/1908.10084",
775
+ }
776
+ ```
777
+
778
+ #### MatryoshkaLoss
779
+ ```bibtex
780
+ @misc{kusupati2024matryoshka,
781
+ title={Matryoshka Representation Learning},
782
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
783
+ year={2024},
784
+ eprint={2205.13147},
785
+ archivePrefix={arXiv},
786
+ primaryClass={cs.LG}
787
+ }
788
+ ```
789
+
790
+ #### MultipleNegativesRankingLoss
791
+ ```bibtex
792
+ @misc{henderson2017efficient,
793
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
794
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
795
+ year={2017},
796
+ eprint={1705.00652},
797
+ archivePrefix={arXiv},
798
+ primaryClass={cs.CL}
799
+ }
800
+ ```
801
+
802
+ <!--
803
+ ## Glossary
804
+
805
+ *Clearly define terms in order to be accessible across audiences.*
806
+ -->
807
+
808
+ <!--
809
+ ## Model Card Authors
810
+
811
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
812
+ -->
813
+
814
+ <!--
815
+ ## Model Card Contact
816
+
817
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
818
+ -->
config.json ADDED
@@ -0,0 +1,32 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "BAAI/bge-base-en-v1.5",
3
+ "architectures": [
4
+ "BertModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "classifier_dropout": null,
8
+ "gradient_checkpointing": false,
9
+ "hidden_act": "gelu",
10
+ "hidden_dropout_prob": 0.1,
11
+ "hidden_size": 768,
12
+ "id2label": {
13
+ "0": "LABEL_0"
14
+ },
15
+ "initializer_range": 0.02,
16
+ "intermediate_size": 3072,
17
+ "label2id": {
18
+ "LABEL_0": 0
19
+ },
20
+ "layer_norm_eps": 1e-12,
21
+ "max_position_embeddings": 512,
22
+ "model_type": "bert",
23
+ "num_attention_heads": 12,
24
+ "num_hidden_layers": 12,
25
+ "pad_token_id": 0,
26
+ "position_embedding_type": "absolute",
27
+ "torch_dtype": "float32",
28
+ "transformers_version": "4.41.2",
29
+ "type_vocab_size": 2,
30
+ "use_cache": true,
31
+ "vocab_size": 30522
32
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.1.0",
4
+ "transformers": "4.41.2",
5
+ "pytorch": "2.1.2+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:8c7c09ec98be1b97c02d181cb220ccb8f65633a1526b4c71050db36c248f494a
3
+ size 437951328
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": true
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,37 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "cls_token": {
3
+ "content": "[CLS]",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "mask_token": {
10
+ "content": "[MASK]",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "pad_token": {
17
+ "content": "[PAD]",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "sep_token": {
24
+ "content": "[SEP]",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "unk_token": {
31
+ "content": "[UNK]",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ }
37
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,57 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "[PAD]",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "100": {
12
+ "content": "[UNK]",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "101": {
20
+ "content": "[CLS]",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "102": {
28
+ "content": "[SEP]",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "103": {
36
+ "content": "[MASK]",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "clean_up_tokenization_spaces": true,
45
+ "cls_token": "[CLS]",
46
+ "do_basic_tokenize": true,
47
+ "do_lower_case": true,
48
+ "mask_token": "[MASK]",
49
+ "model_max_length": 512,
50
+ "never_split": null,
51
+ "pad_token": "[PAD]",
52
+ "sep_token": "[SEP]",
53
+ "strip_accents": null,
54
+ "tokenize_chinese_chars": true,
55
+ "tokenizer_class": "BertTokenizer",
56
+ "unk_token": "[UNK]"
57
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff