mogaio commited on
Commit
7de20de
1 Parent(s): 32d7116

Add SetFit model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,7 @@
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false
7
+ }
README.md ADDED
@@ -0,0 +1,630 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ library_name: setfit
3
+ tags:
4
+ - setfit
5
+ - sentence-transformers
6
+ - text-classification
7
+ - generated_from_setfit_trainer
8
+ metrics:
9
+ - accuracy_score
10
+ - classification_report
11
+ widget:
12
+ - text: 'Adil Hussain
13
+
14
+ Adil Hussain est reconnaissant d''avoir reçu l''enseignement de l''acteur Naseeruddin
15
+ Shah à l''époque où il fréquentait l''École nationale d''art dramatique'
16
+ - text: 'Bien que leurs opinions sur la question de savoir si les migrants sont un
17
+ avantage ou un fardeau soient plus mitigées, de nettes majorités d''électeurs
18
+ de toute la ville de New York, de la banlieue et du nord de l''État ont déclaré
19
+ que l''État devrait essayer de ralentir l''afflux de migrants, plutôt que d''en
20
+ accepter davantage et de s''efforcer d''assimiler les nouveaux arrivants Les démocrates
21
+ aspirent à renverser six circonscriptions détenues par les républicains que M.
22
+ Biden a remportées en 2020, notamment celle de M Les républicains se sont emparés
23
+ de la crise des migrants, donnant un avant-goût des campagnes de l''année prochaine
24
+ Les républicains ont surenchéri : Elise Stefanik, la New-Yorkaise qui dirige la
25
+ conférence du parti démocrate à la Chambre des représentants,
26
+
27
+ Suite à la page suivante
28
+
29
+ a déclaré à Politico la semaine dernière que le parti allait consacrer 100 millions
30
+ de dollars aux campagnes dans les circonscriptions de New York Des problèmes à
31
+ venir pour les démocrates de New York en 2024 ?
32
+
33
+ Les dirigeants démocrates de New York se débattent depuis des mois avec le problème
34
+ de l''hébergement des dizaines de milliers de migrants qui ont été transportés
35
+ par bus jusqu''à New York et laissés à sa charge Des problèmes à venir pour les
36
+ démocrates de New York en 2024 ?
37
+
38
+ Les dirigeants démocrates de New York se débattent depuis des mois avec le problème
39
+ de l''hébergement des dizaines de milliers de migrants qui ont été transportés
40
+ par bus jusqu''à New York et laissés à sa charge.
41
+
42
+ Mais une autre préoccupation se profile alors que la crise se poursuit sans qu''aucune
43
+ issue ne soit en vue : les retombées potentielles pour leur parti lors des élections
44
+ de l''année prochaine Les républicains ont tendance à se sentir en sécurité lorsqu''ils
45
+ parlent d''immigration - comme les démocrates le font pour l''avortement - et
46
+ sont clairement à l''attaque sur la question des migrants à New York, tandis que
47
+ les démocrates sont sur la défensive, a déclaré Kyle Kondik, directeur de la communication
48
+ pour le Centre de politique de l''Université de Virginie, au réseau USA Today
49
+ Plus de 100 000 migrants ont été transportés à New York depuis la frontière sud
50
+ depuis le printemps 2022. Environ 60 000 d''entre eux sont hébergés dans la ville,
51
+ et plus de 2 100 ont été transportés dans des hôtels situés dans sept comtés au
52
+ nord de la ville, de Yonkers à la périphérie de Buffalo, où ils sont logés aux
53
+ frais de la ville Les démocrates doivent y remporter des victoires pour gagner
54
+ cinq sièges à la Chambre et faire du député Hakeem Jeffries, de Brooklyn, le prochain
55
+ président de la Chambre des représentants Les publicités d''attaque des républicains
56
+ s''écrivent pratiquement d''elles-mêmes à partir d''un flot de titres et d''images
57
+ télévisées, alors que le gouverneur Kathy Hochul, le maire de New York Eric Adams
58
+ et le président Joe Biden - tous démocrates - se rejettent mutuellement la faute
59
+ et s''échangent des coups de feu pour savoir qui devrait en faire le plus Isaac
60
+ Goldberg, un stratège démocrate qui a travaillé sur plusieurs campagnes électorales
61
+ à New York, a affirmé qu''il était beaucoup trop tôt pour prédire l''impact politique
62
+ de la crise des migrants, soulignant que les élections de 2024 n''auront lieu
63
+ que dans 14 mois et que de nombreuses questions tout aussi urgentes pourraient
64
+ se poser'
65
+ - text: 'LE CANDIDAT A LA PRESIDENCE RAMASWAMY VEUT METTRE FIN AU SYSTEME DE VISA
66
+ H-1B AUX ETATS-UNIS
67
+
68
+ Décrivant le programme de visas H-1B comme une forme de "servitude", Vivek Ramaswamy,
69
+ candidat républicain indien-américain à l''élection présidentielle, a promis de
70
+ "vider" le système basé sur la loterie et de le remplacer par un système d''admission
71
+ méritocratique s''il remporte les élections présidentielles de 2024'
72
+ - text: 'Smith Hal Sparks Catherine Zeta-Jones son-Sampras Chris Owen Donald Glover
73
+
74
+ ("Queer as Folk") a 54 ans Smith Hal Sparks Catherine Zeta-Jones son-Sampras Chris
75
+ Owen Donald Glover
76
+
77
+ ("Queer as Folk") a 54 ans. a 54 ans. Acteur
78
+
79
+ ("Je sais ce que vous avez fait l''été dernier") a 50 ans'
80
+ - text: 'Trump profiter de sa célébrité jusqu''à la Maison-Blanche.
81
+
82
+ "Cela a tué Howard parce qu''il était le roi de tous les médias Il a poursuivi
83
+ en disant que Trump ne laisserait pas ses partisans s''approcher de l''une de
84
+ ses propriétés. "Les gens qui votent pour Trump, pour la plupart, ne les laisseraient
85
+ même pas entrer dans un putain d''hôtel [ "Si être réveillé signifie que je ne
86
+ peux pas soutenir Trump, ce que je pense que cela signifie, ou que je soutiens
87
+ les personnes qui veulent être transgenres ou que je suis pour le vaccin, appelez-moi
88
+ réveillé comme vous le voulez" "Les gens qui votent pour Trump, pour la plupart,
89
+ ne les laisseraient même pas entrer dans un putain d''hôtel [...]. Allez à Mar-a-lago,
90
+ voyez s''il y a des gens qui vous ressemblent" Stern a également abordé les affirmations
91
+ de Trump et de ses partisans selon lesquelles Joe Biden a remporté l''élection
92
+ américaine de 2020 grâce à des votes frauduleux "Et soudain, Trump a transformé
93
+ Howard, qui était le roi de tous les médias, en prince Harry de tous les médias.
94
+ Tout le monde s''en fout "Trump avait l''habitude de participer à l''émission
95
+ de Stern chaque semaine. Ils étaient amis. Alors cette idée que Trump est le pire
96
+ type qui ait jamais marché sur la surface de la terre, pourquoi traîniez-vous
97
+ avec lui ?"
98
+
99
+ M Mais Stern, qui par le passé a été accusé de racisme et de sexisme dans nombre
100
+ de ses sketches à l''antenne, a été un critique virulent de Trump tout au long
101
+ de sa présidence et, plus récemment, alors qu''il se prépare à se présenter à
102
+ nouveau en 2024.
103
+
104
+ En 2021, M "Combien de temps allons-nous continuer à élire des gens qui ont perdu
105
+ l''élection ?"
106
+
107
+ Il a poursuivi en qualifiant les partisans de Trump de "nigauds".
108
+
109
+ "Mon Dieu, j''ai l''impression d''être dans une nation de nigauds. J''espère qu''il
110
+ y a encore des gens brillants et dynamiques qui aiment ce pays", a-t-il déclaré
111
+ Alors cette idée que Trump est le pire type qui ait jamais marché sur la surface
112
+ de la terre, pourquoi traîniez-vous avec lui ?"
113
+
114
+ M. Failla a déclaré que cela avait "tué" M Si "woke" signifie que je ne peux pas
115
+ soutenir Trump, ce que je pense que cela signifie, ou que je soutiens les personnes
116
+ qui veulent être transgenres ou que je suis pour le vaccin, appelez-moi "woke"
117
+ comme vous voulez Celui qui se décrit comme le "roi de tous les médias" a critiqué
118
+ ouvertement l''ancien président américain Donald Trump, les anti-vaxx et, plus
119
+ récemment, Lauren Boebert, qu''il a critiquée pour son comportement obscène dans
120
+ un théâtre de Denver au début du mois "L''omnipotence médiatique de Donald Trump
121
+ a brisé Howard Stern. C''est très important", a déclaré Failla dans la vidéo (selon
122
+ OK ! Magazine). "Trump avait l''habitude de participer à l''émission de Stern
123
+ chaque semaine L''aversion d''Howard Stern pour Donald Trump, c''est "tout l''ego".
124
+
125
+ Si "woke" signifie que je ne peux pas soutenir Trump, ce que je pense que cela
126
+ signifie, ou que je soutiens les personnes qui veulent être transgenres ou que
127
+ je suis pour le vaccin, appelez-moi "woke" comme vous voulez Trump l''année prochaine.
128
+
129
+ "Je sais que je lui botterai le cul", a-t-il déclaré aux auditeurs.
130
+
131
+ L''année suivante, Stern a déclaré qu''il envisageait de se lancer dans la course
132
+ à la présidence "pour que le pays soit à nouveau juste" En réponse, Trump a partagé
133
+ sur sa plateforme Truth Social un clip de Fox News dans lequel l''animateur Jimmy
134
+ Failla critique Stern.
135
+
136
+ "L''omnipotence médiatique de Donald Trump a brisé Howard Stern "Je vais faire
137
+ la chose très simple qui remettra le pays sur le droit chemin : un vote, une personne",
138
+ a expliqué Stern, affirmant que Trump a en fait perdu l''élection de 2016 contre
139
+ Hillary Clinton qui a remporté le vote populaire - mais pas le collège électoral'
140
+ pipeline_tag: text-classification
141
+ inference: true
142
+ base_model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
143
+ model-index:
144
+ - name: SetFit with sentence-transformers/paraphrase-multilingual-mpnet-base-v2
145
+ results:
146
+ - task:
147
+ type: text-classification
148
+ name: Text Classification
149
+ dataset:
150
+ name: Unknown
151
+ type: unknown
152
+ split: test
153
+ metrics:
154
+ - type: accuracy_score
155
+ value: 0.9434954007884363
156
+ name: Accuracy_Score
157
+ - type: classification_report
158
+ value:
159
+ '0':
160
+ precision: 0.9361702127659575
161
+ recall: 0.9322033898305084
162
+ f1-score: 0.9341825902335456
163
+ support: 236
164
+ '1':
165
+ precision: 0.9333333333333333
166
+ recall: 0.9302325581395349
167
+ f1-score: 0.9317803660565723
168
+ support: 301
169
+ '2':
170
+ precision: 0.9646017699115044
171
+ recall: 0.9732142857142857
172
+ f1-score: 0.9688888888888889
173
+ support: 224
174
+ accuracy: 0.9434954007884363
175
+ macro avg:
176
+ precision: 0.9447017720035985
177
+ recall: 0.945216744561443
178
+ f1-score: 0.9449506150596689
179
+ support: 761
180
+ weighted avg:
181
+ precision: 0.9434169513880108
182
+ recall: 0.9434954007884363
183
+ f1-score: 0.9434482162802315
184
+ support: 761
185
+ name: Classification_Report
186
+ ---
187
+
188
+ # SetFit with sentence-transformers/paraphrase-multilingual-mpnet-base-v2
189
+
190
+ This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
191
+
192
+ The model has been trained using an efficient few-shot learning technique that involves:
193
+
194
+ 1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
195
+ 2. Training a classification head with features from the fine-tuned Sentence Transformer.
196
+
197
+ ## Model Details
198
+
199
+ ### Model Description
200
+ - **Model Type:** SetFit
201
+ - **Sentence Transformer body:** [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2)
202
+ - **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
203
+ - **Maximum Sequence Length:** 128 tokens
204
+ - **Number of Classes:** 3 classes
205
+ <!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
206
+ <!-- - **Language:** Unknown -->
207
+ <!-- - **License:** Unknown -->
208
+
209
+ ### Model Sources
210
+
211
+ - **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
212
+ - **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
213
+ - **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
214
+
215
+ ### Model Labels
216
+ | Label | Examples |
217
+ |:------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
218
+ | pos | <ul><li>"Les PHL lèvent 1,26 milliard de dollars grâce aux obligations en dollars de détail\nLE GOUVERNEMENT PHILIPPIN a levé 1,26 milliard de dollars lors de la première émission d'obligations de détail en dollars (RDB) sous l'administration Marcos, a déclaré le ministère des Finances (DoF)"</li><li>"Atom Egoyan revient à Salomé, l'opéra qu'il a monté en 1996, avec Seven Veils\nAtom Egoyan n'a pas été surpris lorsque la Canadian Opera Company lui a demandé de remonter Salomé pour la saison 2022-23 Atom Egoyan revient à Salomé, l'opéra qu'il a monté en 1996, avec Seven Veils\nAtom Egoyan n'a pas été surpris lorsque la Canadian Opera Company lui a demandé de remonter Salomé pour la saison 2022-23. Avec ses éléments de film et de vidéo, son interprétation psychologique et sombre de l'opéra de Richard Strauss avait un solide palmarès de reprises - depuis sa création en 1996, elle avait été présentée deux fois de plus à la COC et avait été reprise par plusieurs autres compagnies"</li><li>'Paul Simon présente un documentaire sur sa carrière\nAprès un documentaire de trois heures et demie sur sa vie, Paul Simon n\'avait que de la sympathie pour le public Paul Simon présente un documentaire sur sa carrière\nAprès un documentaire de trois heures et demie sur sa vie, Paul Simon n\'avait que de la sympathie pour le public.\nTORONTO >> Après un documentaire de trois heures et demie sur sa vie, Paul Simon n\'avait que de la sympathie pour le public "Il n\'y a pas de raison que vous soyez épuisés", a dit Simon à la foule après la première du documentaire d\'Alex Gibney "In Restless Dreams : The Music of Paul Simon" d\'Alex Gibney, dimanche au Festival international du film de Toronto.\nSimon, âgé de 81 ans, n\'avait pas regardé le film avant la première, et il ne l\'a pas regardé non plus dimanche TORONTO >> Après un documentaire de trois heures et demie sur sa vie, Paul Simon n\'avait que de la sympathie pour le public.\n"Il n\'y a pas de raison que vous soyez épuisés", a dit Simon à la foule après la première du documentaire d\'Alex Gibney "In Restless Dreams : The Music of Paul Simon" d\'Alex Gibney, dimanche au Festival international du film de Toronto'</li></ul> |
219
+ | neg | <ul><li>'Le groupe Al-Mostaqilla de l\'université du Koweït a appelé les étudiants à organiser un sit-in à l\'université du Koweït lundi pour protester contre la décision de mettre fin aux classes mixtes La décision a été prise la semaine dernière par le nouveau ministre de l\'éducation, Adel Al-Mane, et le directeur par intérim de l\'université du Koweït, Fayez Al-Dhafiri, et mise en œuvre mercredi, trois jours seulement avant le début de la nouvelle année universitaire à la faculté de droit L\'association a également demandé au gouvernement de "cesser ses interventions politiques et médiatiques injustifiées" dans les affaires de l\'université du Koweït.\nL\'association a appelé le directeur par intérim de l\'université du Koweït à ne pas céder aux pressions politiques et médiatiques et à s\'efforcer de protéger l\'indépendance de l\'université Dhafiri a déclaré que la décision avait été prise en application de la loi de 1996 qui interdisait l\'enseignement mixte à l\'université du Koweït, malgré une décision de la Cour constitutionnelle de 2015 autorisant l\'enseignement mixte lorsqu\'il était nécessaire et dans des cas exceptionnels Parallèlement, l\'association des professeurs de l\'université du Koweït a publié samedi une déclaration demandant aux députés et au gouvernement de "cesser d\'interférer dans les affaires de l\'université du Koweït" et de maintenir l\'indépendance de l\'université "L\'université du Koweït était, est et sera toujours le porte-drapeau de la connaissance et des valeurs, à l\'abri de toute influence extérieure Le député Abdulwahab Al-Essa a reproché à l\'administration de l\'université du Koweït d\'avoir succombé à la pression politique au détriment de l\'intérêt public, ajoutant que l\'université du Koweït avait appliqué correctement une décision de la cour constitutionnelle autorisant les classes mixtes chaque fois que cela était nécessaire'</li><li>"L'immigration étant l'un des défis les plus difficiles à relever pour le président Joe Biden et apparaissant comme un enjeu majeur des élections de l'année prochaine, l'administration délocalise essentiellement la question en s'appuyant sur les pays d'Amérique centrale et d'Amérique du Sud pour empêcher les migrants de se diriger vers le nord"</li><li>'Lors d\'une réunion d\'information mardi, le porte-parole de l\'armée, le lieutenant-colonel Richard Hecht, a suggéré que les Palestiniens tentent de quitter la bande de Gaza par le poste-frontière de Rafah, en Égypte.\nLa perspective d\'un exode des habitants de Gaza vers le territoire égyptien a alarmé les autorités égyptiennes La question qui se pose est de savoir si Israël lancera une offensive terrestre dans la bande de Gaza, une bande de terre de 25 miles de long coincée entre Israël, l\'Égypte et la mer Méditerranée, où vivent 2,3 millions de personnes et qui est gouvernée par le Hamas depuis 2007 Israël pilonne la bande de Gaza ; les habitants se précipitent pour se mettre à l\'abri\nJERUSALEM - Les avions de combat israéliens ont bombardé la bande de Gaza quartier par quartier mardi, réduisant les bâtiments en ruines et poussant les habitants à se précipiter pour se mettre à l\'abri dans ce minuscule territoire isolé, alors qu\'Israël promet des représailles pour l\'attaque surprise du Hamas du week-end qui "se répercuteront Les autorités égyptiennes discutent avec Israël et les États-Unis afin de mettre en place des corridors humanitaires dans la bande de Gaza pour acheminer l\'aide, a déclaré un responsable égyptien. Des négociations sont en cours avec les Israéliens pour que la zone autour du point de passage de Rafah entre l\'Égypte et Gaza soit déclarée "zone d\'interdiction de feu", a déclaré le responsable, sous couvert d\'anonymat car il n\'était pas autorisé à parler aux médias'</li></ul> |
220
+ | obj | <ul><li>"L'économie pèse sur les Américains Ils sont plus nombreux à faire confiance à Trump qu'à Biden pour alléger leur fardeau\nWASHINGTON - Linda Muñoz a peur de l'économie Trump, le candidat républicain à la primaire de 2024, pour améliorer l'économie, avec une marge de 47 % à 36 %. L'écart est de 46 %-26 % en faveur de M. Trump parmi les électeurs indépendants Presque tous les républicains interrogés ont exprimé leur pessimisme à l'égard de l'économie, selon le sondage : 96 % d'entre eux estiment que la situation se dégrade au lieu de s'améliorer Le logement. L'essence. Tous ces éléments poussent les gens à s'endetter de plus en plus, disent-ils.\nSelon le sondage, près de 70 % des Américains estiment que la situation économique se dégrade, tandis que 22 % seulement estiment qu'elle s'améliore L'économie pèse sur les Américains Ils sont plus nombreux à faire confiance à Trump qu'à Biden pour alléger leur fardeau\nWASHINGTON - Linda Muñoz a peur de l'économie. Elle a puisé dans son épargne d'urgence cette année. Et elle ne croit pas que le président Joe Biden ressente sa douleur L'épicerie. Le logement. L'essence. Tous ces éléments poussent les gens à s'endetter de plus en plus, disent-ils.\nSelon le sondage, près de 70 % des Américains estiment que la situation économique se dégrade, tandis que 22 % seulement estiment qu'elle s'améliore"</li><li>'Le Pentagone va interroger d\'autres militaires sur l\'attentat suicide de l\'aéroport de Kaboul en 2021\nLe commandement central du Pentagone a ordonné l\'audition d\'une vingtaine de militaires supplémentaires qui se trouvaient à l\'aéroport de Kaboul lorsque des kamikazes ont attaqué pendant le retrait chaotique des forces américaines d\'Afghanistan, alors que les critiques persistent sur le fait que l\'attaque meurtrière aurait pu être stoppée Certaines familles des personnes tuées ou blessées se sont plaintes que le Pentagone n\'avait pas fait preuve de suffisamment de transparence au sujet de l\'attentat à la bombe qui a tué 170 Afghans\net 13 militaires américains.\nL\'enquête du commandement central américain a conclu en novembre 2021 qu\'étant donné la détérioration de la sécurité à la porte de l\'Abbaye de l\'aéroport alors que les Afghans cherchaient de plus en plus à fuir, "l\'attaque n\'aurait pas pu être évitée au niveau tactique sans dégrader la mission visant à maximiser le nombre d\'évacués" Le Pentagone a déclaré que l\'examen de l\'attentat suicide n\'avait révélé aucune identification préalable d\'un attaquant possible ni aucune demande d\'"escalade des règles d\'engagement existantes" régissant l\'utilisation de la force par les troupes américaines'</li><li>'Les retombées de la guerre se répercutent sur les lieux de travail aux États-Unis.\nNEW YORK - Les retombées de la guerre entre Israël et le Hamas se sont répandues sur les lieux de travail partout dans le monde, les dirigeants de grandes entreprises exprimant leur point de vue tandis que les travailleurs se plaignent de ne pas être entendus "À quoi me sert mon travail si je compromets ma propre morale et mon éthique ?\nL\'un des conflits les plus importants s\'est produit chez Starbucks après que Starbucks Workers United, un syndicat représentant 9 000 travailleurs dans plus de 360 magasins aux États-Unis, a tweeté "Solidarité avec la Palestine" deux jours après l\'attaque du Hamas. Le tweet a été supprimé au bout de 40 minutes, mais l\'entreprise a déclaré qu\'il avait donné lieu à plus de 1 000 plaintes, à des actes de vandalisme et à des affrontements dans ses magasins NEW YORK - Les retombées de la guerre entre Israël et le Hamas se sont répandues sur les lieux de travail partout dans le monde, les dirigeants de grandes entreprises exprimant leur point de vue tandis que les travailleurs se plaignent de ne pas être entendus'</li></ul> |
221
+
222
+ ## Evaluation
223
+
224
+ ### Metrics
225
+ | Label | Accuracy_Score | Classification_Report |
226
+ |:--------|:---------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
227
+ | **all** | 0.9435 | {'0': {'precision': 0.9361702127659575, 'recall': 0.9322033898305084, 'f1-score': 0.9341825902335456, 'support': 236}, '1': {'precision': 0.9333333333333333, 'recall': 0.9302325581395349, 'f1-score': 0.9317803660565723, 'support': 301}, '2': {'precision': 0.9646017699115044, 'recall': 0.9732142857142857, 'f1-score': 0.9688888888888889, 'support': 224}, 'accuracy': 0.9434954007884363, 'macro avg': {'precision': 0.9447017720035985, 'recall': 0.945216744561443, 'f1-score': 0.9449506150596689, 'support': 761}, 'weighted avg': {'precision': 0.9434169513880108, 'recall': 0.9434954007884363, 'f1-score': 0.9434482162802315, 'support': 761}} |
228
+
229
+ ## Uses
230
+
231
+ ### Direct Use for Inference
232
+
233
+ First install the SetFit library:
234
+
235
+ ```bash
236
+ pip install setfit
237
+ ```
238
+
239
+ Then you can load this model and run inference.
240
+
241
+ ```python
242
+ from setfit import SetFitModel
243
+
244
+ # Download from the 🤗 Hub
245
+ model = SetFitModel.from_pretrained("mogaio/pr_ebsa_fr_tran_merged25_e1_middle_offsets")
246
+ # Run inference
247
+ preds = model("Adil Hussain
248
+ Adil Hussain est reconnaissant d'avoir reçu l'enseignement de l'acteur Naseeruddin Shah à l'époque où il fréquentait l'École nationale d'art dramatique")
249
+ ```
250
+
251
+ <!--
252
+ ### Downstream Use
253
+
254
+ *List how someone could finetune this model on their own dataset.*
255
+ -->
256
+
257
+ <!--
258
+ ### Out-of-Scope Use
259
+
260
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
261
+ -->
262
+
263
+ <!--
264
+ ## Bias, Risks and Limitations
265
+
266
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
267
+ -->
268
+
269
+ <!--
270
+ ### Recommendations
271
+
272
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
273
+ -->
274
+
275
+ ## Training Details
276
+
277
+ ### Training Set Metrics
278
+ | Training set | Min | Median | Max |
279
+ |:-------------|:----|:---------|:-----|
280
+ | Word count | 9 | 247.2638 | 2089 |
281
+
282
+ | Label | Training Sample Count |
283
+ |:------|:----------------------|
284
+ | neg | 913 |
285
+ | obj | 1216 |
286
+ | pos | 911 |
287
+
288
+ ### Training Hyperparameters
289
+ - batch_size: (8, 8)
290
+ - num_epochs: (1, 1)
291
+ - max_steps: -1
292
+ - sampling_strategy: oversampling
293
+ - num_iterations: 1
294
+ - body_learning_rate: (2e-05, 2e-05)
295
+ - head_learning_rate: 2e-05
296
+ - loss: CosineSimilarityLoss
297
+ - distance_metric: cosine_distance
298
+ - margin: 0.25
299
+ - end_to_end: False
300
+ - use_amp: False
301
+ - warmup_proportion: 0.1
302
+ - seed: 42
303
+ - eval_max_steps: -1
304
+ - load_best_model_at_end: False
305
+
306
+ ### Training Results
307
+ | Epoch | Step | Training Loss | Validation Loss |
308
+ |:------:|:----:|:-------------:|:---------------:|
309
+ | 0.0013 | 1 | 0.3703 | - |
310
+ | 0.0658 | 50 | 0.3145 | - |
311
+ | 0.1316 | 100 | 0.1839 | - |
312
+ | 0.1974 | 150 | 0.2558 | - |
313
+ | 0.2632 | 200 | 0.2683 | - |
314
+ | 0.3289 | 250 | 0.1572 | - |
315
+ | 0.3947 | 300 | 0.1953 | - |
316
+ | 0.4605 | 350 | 0.171 | - |
317
+ | 0.5263 | 400 | 0.2326 | - |
318
+ | 0.5921 | 450 | 0.1762 | - |
319
+ | 0.6579 | 500 | 0.2818 | - |
320
+ | 0.7237 | 550 | 0.2733 | - |
321
+ | 0.7895 | 600 | 0.195 | - |
322
+ | 0.8553 | 650 | 0.2104 | - |
323
+ | 0.9211 | 700 | 0.2124 | - |
324
+ | 0.9868 | 750 | 0.0818 | - |
325
+ | 1.0526 | 800 | 0.1046 | - |
326
+ | 1.1184 | 850 | 0.1633 | - |
327
+ | 1.1842 | 900 | 0.3207 | - |
328
+ | 1.25 | 950 | 0.2703 | - |
329
+ | 1.3158 | 1000 | 0.1934 | - |
330
+ | 1.3816 | 1050 | 0.2547 | - |
331
+ | 1.4474 | 1100 | 0.0933 | - |
332
+ | 1.5132 | 1150 | 0.2102 | - |
333
+ | 1.5789 | 1200 | 0.0699 | - |
334
+ | 1.6447 | 1250 | 0.1778 | - |
335
+ | 1.7105 | 1300 | 0.1796 | - |
336
+ | 1.7763 | 1350 | 0.0221 | - |
337
+ | 1.8421 | 1400 | 0.2154 | - |
338
+ | 1.9079 | 1450 | 0.1683 | - |
339
+ | 1.9737 | 1500 | 0.3096 | - |
340
+ | 2.0395 | 1550 | 0.201 | - |
341
+ | 2.1053 | 1600 | 0.1954 | - |
342
+ | 2.1711 | 1650 | 0.2301 | - |
343
+ | 2.2368 | 1700 | 0.1141 | - |
344
+ | 2.3026 | 1750 | 0.1949 | - |
345
+ | 2.3684 | 1800 | 0.164 | - |
346
+ | 2.4342 | 1850 | 0.2307 | - |
347
+ | 2.5 | 1900 | 0.1912 | - |
348
+ | 2.5658 | 1950 | 0.2349 | - |
349
+ | 2.6316 | 2000 | 0.0922 | - |
350
+ | 2.6974 | 2050 | 0.0702 | - |
351
+ | 2.7632 | 2100 | 0.1089 | - |
352
+ | 2.8289 | 2150 | 0.1711 | - |
353
+ | 2.8947 | 2200 | 0.1432 | - |
354
+ | 2.9605 | 2250 | 0.2739 | - |
355
+ | 3.0263 | 2300 | 0.1889 | - |
356
+ | 3.0921 | 2350 | 0.1036 | - |
357
+ | 3.1579 | 2400 | 0.1372 | - |
358
+ | 3.2237 | 2450 | 0.028 | - |
359
+ | 3.2895 | 2500 | 0.1739 | - |
360
+ | 3.3553 | 2550 | 0.142 | - |
361
+ | 3.4211 | 2600 | 0.0838 | - |
362
+ | 3.4868 | 2650 | 0.0657 | - |
363
+ | 3.5526 | 2700 | 0.0054 | - |
364
+ | 3.6184 | 2750 | 0.0426 | - |
365
+ | 3.6842 | 2800 | 0.1974 | - |
366
+ | 3.75 | 2850 | 0.0279 | - |
367
+ | 3.8158 | 2900 | 0.1326 | - |
368
+ | 3.8816 | 2950 | 0.1614 | - |
369
+ | 3.9474 | 3000 | 0.1251 | - |
370
+ | 4.0132 | 3050 | 0.1174 | - |
371
+ | 4.0789 | 3100 | 0.1948 | - |
372
+ | 4.1447 | 3150 | 0.0555 | - |
373
+ | 4.2105 | 3200 | 0.0064 | - |
374
+ | 4.2763 | 3250 | 0.064 | - |
375
+ | 4.3421 | 3300 | 0.0013 | - |
376
+ | 4.4079 | 3350 | 0.135 | - |
377
+ | 4.4737 | 3400 | 0.0574 | - |
378
+ | 4.5395 | 3450 | 0.174 | - |
379
+ | 4.6053 | 3500 | 0.2199 | - |
380
+ | 4.6711 | 3550 | 0.387 | - |
381
+ | 4.7368 | 3600 | 0.114 | - |
382
+ | 4.8026 | 3650 | 0.0853 | - |
383
+ | 4.8684 | 3700 | 0.0325 | - |
384
+ | 4.9342 | 3750 | 0.019 | - |
385
+ | 5.0 | 3800 | 0.0572 | - |
386
+ | 0.0013 | 1 | 0.1435 | - |
387
+ | 0.0658 | 50 | 0.0969 | - |
388
+ | 0.1316 | 100 | 0.1085 | - |
389
+ | 0.1974 | 150 | 0.0271 | - |
390
+ | 0.2632 | 200 | 0.0138 | - |
391
+ | 0.3289 | 250 | 0.058 | - |
392
+ | 0.3947 | 300 | 0.1205 | - |
393
+ | 0.4605 | 350 | 0.0788 | - |
394
+ | 0.5263 | 400 | 0.1449 | - |
395
+ | 0.5921 | 450 | 0.0383 | - |
396
+ | 0.6579 | 500 | 0.0338 | - |
397
+ | 0.7237 | 550 | 0.1253 | - |
398
+ | 0.7895 | 600 | 0.069 | - |
399
+ | 0.8553 | 650 | 0.104 | - |
400
+ | 0.9211 | 700 | 0.0462 | - |
401
+ | 0.9868 | 750 | 0.1975 | - |
402
+ | 1.0526 | 800 | 0.0241 | - |
403
+ | 1.1184 | 850 | 0.0426 | - |
404
+ | 1.1842 | 900 | 0.0519 | - |
405
+ | 1.25 | 950 | 0.0815 | - |
406
+ | 1.3158 | 1000 | 0.1839 | - |
407
+ | 1.3816 | 1050 | 0.0198 | - |
408
+ | 1.4474 | 1100 | 0.0128 | - |
409
+ | 1.5132 | 1150 | 0.1645 | - |
410
+ | 1.5789 | 1200 | 0.0019 | - |
411
+ | 1.6447 | 1250 | 0.0557 | - |
412
+ | 1.7105 | 1300 | 0.0098 | - |
413
+ | 1.7763 | 1350 | 0.001 | - |
414
+ | 1.8421 | 1400 | 0.1557 | - |
415
+ | 1.9079 | 1450 | 0.1286 | - |
416
+ | 1.9737 | 1500 | 0.094 | - |
417
+ | 2.0395 | 1550 | 0.0059 | - |
418
+ | 2.1053 | 1600 | 0.0227 | - |
419
+ | 2.1711 | 1650 | 0.0899 | - |
420
+ | 2.2368 | 1700 | 0.0053 | - |
421
+ | 2.3026 | 1750 | 0.0021 | - |
422
+ | 2.3684 | 1800 | 0.0114 | - |
423
+ | 2.4342 | 1850 | 0.1163 | - |
424
+ | 2.5 | 1900 | 0.0959 | - |
425
+ | 2.5658 | 1950 | 0.0252 | - |
426
+ | 2.6316 | 2000 | 0.0921 | - |
427
+ | 2.6974 | 2050 | 0.1159 | - |
428
+ | 2.7632 | 2100 | 0.0026 | - |
429
+ | 2.8289 | 2150 | 0.1211 | - |
430
+ | 2.8947 | 2200 | 0.1843 | - |
431
+ | 2.9605 | 2250 | 0.0014 | - |
432
+ | 3.0263 | 2300 | 0.0085 | - |
433
+ | 3.0921 | 2350 | 0.0839 | - |
434
+ | 3.1579 | 2400 | 0.2372 | - |
435
+ | 3.2237 | 2450 | 0.0213 | - |
436
+ | 3.2895 | 2500 | 0.0155 | - |
437
+ | 3.3553 | 2550 | 0.1128 | - |
438
+ | 3.4211 | 2600 | 0.0945 | - |
439
+ | 3.4868 | 2650 | 0.0917 | - |
440
+ | 3.5526 | 2700 | 0.0011 | - |
441
+ | 3.6184 | 2750 | 0.0024 | - |
442
+ | 3.6842 | 2800 | 0.0044 | - |
443
+ | 3.75 | 2850 | 0.121 | - |
444
+ | 3.8158 | 2900 | 0.0056 | - |
445
+ | 3.8816 | 2950 | 0.003 | - |
446
+ | 3.9474 | 3000 | 0.0899 | - |
447
+ | 4.0132 | 3050 | 0.0157 | - |
448
+ | 4.0789 | 3100 | 0.1188 | - |
449
+ | 4.1447 | 3150 | 0.001 | - |
450
+ | 4.2105 | 3200 | 0.0222 | - |
451
+ | 4.2763 | 3250 | 0.1209 | - |
452
+ | 4.3421 | 3300 | 0.1085 | - |
453
+ | 4.4079 | 3350 | 0.0054 | - |
454
+ | 4.4737 | 3400 | 0.0009 | - |
455
+ | 4.5395 | 3450 | 0.0015 | - |
456
+ | 4.6053 | 3500 | 0.003 | - |
457
+ | 4.6711 | 3550 | 0.0009 | - |
458
+ | 4.7368 | 3600 | 0.0003 | - |
459
+ | 4.8026 | 3650 | 0.0009 | - |
460
+ | 4.8684 | 3700 | 0.03 | - |
461
+ | 4.9342 | 3750 | 0.1206 | - |
462
+ | 5.0 | 3800 | 0.0003 | - |
463
+ | 0.0013 | 1 | 0.2045 | - |
464
+ | 0.0658 | 50 | 0.0078 | - |
465
+ | 0.1316 | 100 | 0.0087 | - |
466
+ | 0.1974 | 150 | 0.0386 | - |
467
+ | 0.2632 | 200 | 0.1015 | - |
468
+ | 0.3289 | 250 | 0.0022 | - |
469
+ | 0.3947 | 300 | 0.0291 | - |
470
+ | 0.4605 | 350 | 0.0013 | - |
471
+ | 0.5263 | 400 | 0.0022 | - |
472
+ | 0.5921 | 450 | 0.1324 | - |
473
+ | 0.6579 | 500 | 0.113 | - |
474
+ | 0.7237 | 550 | 0.0011 | - |
475
+ | 0.7895 | 600 | 0.1723 | - |
476
+ | 0.8553 | 650 | 0.0049 | - |
477
+ | 0.9211 | 700 | 0.206 | - |
478
+ | 0.9868 | 750 | 0.1683 | - |
479
+ | 1.0526 | 800 | 0.0954 | - |
480
+ | 1.1184 | 850 | 0.018 | - |
481
+ | 1.1842 | 900 | 0.1854 | - |
482
+ | 1.25 | 950 | 0.0342 | - |
483
+ | 1.3158 | 1000 | 0.0015 | - |
484
+ | 1.3816 | 1050 | 0.0062 | - |
485
+ | 1.4474 | 1100 | 0.1187 | - |
486
+ | 1.5132 | 1150 | 0.0048 | - |
487
+ | 1.5789 | 1200 | 0.0011 | - |
488
+ | 1.6447 | 1250 | 0.002 | - |
489
+ | 1.7105 | 1300 | 0.092 | - |
490
+ | 1.7763 | 1350 | 0.1245 | - |
491
+ | 1.8421 | 1400 | 0.0009 | - |
492
+ | 1.9079 | 1450 | 0.1185 | - |
493
+ | 1.9737 | 1500 | 0.0017 | - |
494
+ | 2.0395 | 1550 | 0.008 | - |
495
+ | 2.1053 | 1600 | 0.0049 | - |
496
+ | 2.1711 | 1650 | 0.0083 | - |
497
+ | 2.2368 | 1700 | 0.0026 | - |
498
+ | 2.3026 | 1750 | 0.0081 | - |
499
+ | 2.3684 | 1800 | 0.0036 | - |
500
+ | 2.4342 | 1850 | 0.0016 | - |
501
+ | 2.5 | 1900 | 0.0017 | - |
502
+ | 2.5658 | 1950 | 0.0014 | - |
503
+ | 2.6316 | 2000 | 0.0017 | - |
504
+ | 2.6974 | 2050 | 0.002 | - |
505
+ | 2.7632 | 2100 | 0.1022 | - |
506
+ | 2.8289 | 2150 | 0.0004 | - |
507
+ | 2.8947 | 2200 | 0.0007 | - |
508
+ | 2.9605 | 2250 | 0.0794 | - |
509
+ | 3.0263 | 2300 | 0.0183 | - |
510
+ | 3.0921 | 2350 | 0.0377 | - |
511
+ | 3.1579 | 2400 | 0.029 | - |
512
+ | 3.2237 | 2450 | 0.0003 | - |
513
+ | 3.2895 | 2500 | 0.0961 | - |
514
+ | 3.3553 | 2550 | 0.0008 | - |
515
+ | 3.4211 | 2600 | 0.0873 | - |
516
+ | 3.4868 | 2650 | 0.0501 | - |
517
+ | 3.5526 | 2700 | 0.0029 | - |
518
+ | 3.6184 | 2750 | 0.0008 | - |
519
+ | 3.6842 | 2800 | 0.0004 | - |
520
+ | 3.75 | 2850 | 0.0011 | - |
521
+ | 3.8158 | 2900 | 0.0518 | - |
522
+ | 3.8816 | 2950 | 0.0002 | - |
523
+ | 3.9474 | 3000 | 0.1115 | - |
524
+ | 4.0132 | 3050 | 0.0129 | - |
525
+ | 4.0789 | 3100 | 0.0005 | - |
526
+ | 4.1447 | 3150 | 0.0012 | - |
527
+ | 4.2105 | 3200 | 0.1086 | - |
528
+ | 4.2763 | 3250 | 0.0199 | - |
529
+ | 4.3421 | 3300 | 0.0004 | - |
530
+ | 4.4079 | 3350 | 0.0001 | - |
531
+ | 4.4737 | 3400 | 0.0832 | - |
532
+ | 4.5395 | 3450 | 0.0003 | - |
533
+ | 4.6053 | 3500 | 0.0041 | - |
534
+ | 4.6711 | 3550 | 0.1146 | - |
535
+ | 4.7368 | 3600 | 0.0027 | - |
536
+ | 4.8026 | 3650 | 0.0002 | - |
537
+ | 4.8684 | 3700 | 0.0544 | - |
538
+ | 4.9342 | 3750 | 0.0002 | - |
539
+ | 5.0 | 3800 | 0.0046 | - |
540
+ | 0.0013 | 1 | 0.0015 | - |
541
+ | 0.0658 | 50 | 0.1973 | - |
542
+ | 0.1316 | 100 | 0.0106 | - |
543
+ | 0.1974 | 150 | 0.0744 | - |
544
+ | 0.2632 | 200 | 0.1033 | - |
545
+ | 0.3289 | 250 | 0.0425 | - |
546
+ | 0.3947 | 300 | 0.1125 | - |
547
+ | 0.4605 | 350 | 0.0018 | - |
548
+ | 0.5263 | 400 | 0.0019 | - |
549
+ | 0.5921 | 450 | 0.0002 | - |
550
+ | 0.6579 | 500 | 0.0007 | - |
551
+ | 0.7237 | 550 | 0.1393 | - |
552
+ | 0.7895 | 600 | 0.0002 | - |
553
+ | 0.8553 | 650 | 0.0043 | - |
554
+ | 0.9211 | 700 | 0.0339 | - |
555
+ | 0.9868 | 750 | 0.0002 | - |
556
+ | 0.0013 | 1 | 0.0007 | - |
557
+ | 0.0658 | 50 | 0.0419 | - |
558
+ | 0.1316 | 100 | 0.0068 | - |
559
+ | 0.1974 | 150 | 0.1401 | - |
560
+ | 0.2632 | 200 | 0.0423 | - |
561
+ | 0.3289 | 250 | 0.1122 | - |
562
+ | 0.3947 | 300 | 0.0037 | - |
563
+ | 0.4605 | 350 | 0.005 | - |
564
+ | 0.5263 | 400 | 0.0006 | - |
565
+ | 0.5921 | 450 | 0.0006 | - |
566
+ | 0.6579 | 500 | 0.0016 | - |
567
+ | 0.7237 | 550 | 0.1244 | - |
568
+ | 0.7895 | 600 | 0.0016 | - |
569
+ | 0.8553 | 650 | 0.0028 | - |
570
+ | 0.9211 | 700 | 0.002 | - |
571
+ | 0.9868 | 750 | 0.057 | - |
572
+ | 0.0013 | 1 | 0.1396 | - |
573
+ | 0.0658 | 50 | 0.0366 | - |
574
+ | 0.1316 | 100 | 0.0021 | - |
575
+ | 0.1974 | 150 | 0.1088 | - |
576
+ | 0.2632 | 200 | 0.0449 | - |
577
+ | 0.3289 | 250 | 0.0187 | - |
578
+ | 0.3947 | 300 | 0.0017 | - |
579
+ | 0.4605 | 350 | 0.1262 | - |
580
+ | 0.5263 | 400 | 0.0052 | - |
581
+ | 0.5921 | 450 | 0.1188 | - |
582
+ | 0.6579 | 500 | 0.0002 | - |
583
+ | 0.7237 | 550 | 0.0006 | - |
584
+ | 0.7895 | 600 | 0.0758 | - |
585
+ | 0.8553 | 650 | 0.025 | - |
586
+ | 0.9211 | 700 | 0.0052 | - |
587
+ | 0.9868 | 750 | 0.1985 | - |
588
+
589
+ ### Framework Versions
590
+ - Python: 3.10.12
591
+ - SetFit: 1.0.1
592
+ - Sentence Transformers: 2.2.2
593
+ - Transformers: 4.35.2
594
+ - PyTorch: 2.1.0+cu121
595
+ - Datasets: 2.15.0
596
+ - Tokenizers: 0.15.0
597
+
598
+ ## Citation
599
+
600
+ ### BibTeX
601
+ ```bibtex
602
+ @article{https://doi.org/10.48550/arxiv.2209.11055,
603
+ doi = {10.48550/ARXIV.2209.11055},
604
+ url = {https://arxiv.org/abs/2209.11055},
605
+ author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
606
+ keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
607
+ title = {Efficient Few-Shot Learning Without Prompts},
608
+ publisher = {arXiv},
609
+ year = {2022},
610
+ copyright = {Creative Commons Attribution 4.0 International}
611
+ }
612
+ ```
613
+
614
+ <!--
615
+ ## Glossary
616
+
617
+ *Clearly define terms in order to be accessible across audiences.*
618
+ -->
619
+
620
+ <!--
621
+ ## Model Card Authors
622
+
623
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
624
+ -->
625
+
626
+ <!--
627
+ ## Model Card Contact
628
+
629
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
630
+ -->
config.json ADDED
@@ -0,0 +1,29 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "/root/.cache/torch/sentence_transformers/sentence-transformers_paraphrase-multilingual-mpnet-base-v2/",
3
+ "architectures": [
4
+ "XLMRobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "gradient_checkpointing": false,
11
+ "hidden_act": "gelu",
12
+ "hidden_dropout_prob": 0.1,
13
+ "hidden_size": 768,
14
+ "initializer_range": 0.02,
15
+ "intermediate_size": 3072,
16
+ "layer_norm_eps": 1e-05,
17
+ "max_position_embeddings": 514,
18
+ "model_type": "xlm-roberta",
19
+ "num_attention_heads": 12,
20
+ "num_hidden_layers": 12,
21
+ "output_past": true,
22
+ "pad_token_id": 1,
23
+ "position_embedding_type": "absolute",
24
+ "torch_dtype": "float32",
25
+ "transformers_version": "4.35.2",
26
+ "type_vocab_size": 1,
27
+ "use_cache": true,
28
+ "vocab_size": 250002
29
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,7 @@
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "2.0.0",
4
+ "transformers": "4.7.0",
5
+ "pytorch": "1.9.0+cu102"
6
+ }
7
+ }
config_setfit.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "labels": null,
3
+ "normalize_embeddings": false
4
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:a4d072e3f800f72d0ece1f31d740e1d8091009ad87c66fb079b10b68d55c808c
3
+ size 1112197096
model_head.pkl ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:db71241616a47f1efad2c661b5f7155df0914e89dbca88ce46a8166692cfd225
3
+ size 19311
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 128,
3
+ "do_lower_case": false
4
+ }
sentencepiece.bpe.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
3
+ size 5069051
special_tokens_map.json ADDED
@@ -0,0 +1,15 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": "<s>",
3
+ "cls_token": "<s>",
4
+ "eos_token": "</s>",
5
+ "mask_token": {
6
+ "content": "<mask>",
7
+ "lstrip": true,
8
+ "normalized": false,
9
+ "rstrip": false,
10
+ "single_word": false
11
+ },
12
+ "pad_token": "<pad>",
13
+ "sep_token": "</s>",
14
+ "unk_token": "<unk>"
15
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:fa685fc160bbdbab64058d4fc91b60e62d207e8dc60b9af5c002c5ab946ded00
3
+ size 17083009
tokenizer_config.json ADDED
@@ -0,0 +1,61 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "max_length": 128,
50
+ "model_max_length": 512,
51
+ "pad_to_multiple_of": null,
52
+ "pad_token": "<pad>",
53
+ "pad_token_type_id": 0,
54
+ "padding_side": "right",
55
+ "sep_token": "</s>",
56
+ "stride": 0,
57
+ "tokenizer_class": "XLMRobertaTokenizer",
58
+ "truncation_side": "right",
59
+ "truncation_strategy": "longest_first",
60
+ "unk_token": "<unk>"
61
+ }