Spaces:
Running
on
CPU Upgrade
Running
on
CPU Upgrade
fix - alexlav : simplifcation du discours
Browse files- src/display/about.py +4 -4
src/display/about.py
CHANGED
@@ -22,14 +22,14 @@ class Tasks(Enum):
|
|
22 |
# Your leaderboard name
|
23 |
TITLE = """<h1 align="center" id="space-title"> OpenLLM French leaderboard 🇫🇷</h1>"""
|
24 |
|
25 |
-
|
26 |
INTRODUCTION_TEXT = """
|
27 |
# Manifeste du Leaderboard 🇫🇷
|
28 |
|
29 |
**Création d'une plateforme d'évaluation pour les modèles de langage (LLM) francophones.**
|
30 |
Chère communauté, vous voici sur le Leaderboard, un classement open-source dédiée à l'évaluation des grands modèles de langage (LLM) en français. Notre mission est de mettre en lumière spécifiquement les modèles qui excellent en langue française, en fournissant des benchmarks et standards qui permettent de donner le "La" sur les avancées techniques dans les LLM en français.
|
31 |
|
32 |
-
Nous sommes convaincus que les LLM sont une technologie de pointe représentent l'avenir de la compréhension et de la génération du langage. Ces modèles
|
33 |
|
34 |
## Notre Mission
|
35 |
|
@@ -47,7 +47,7 @@ Découvrez nos benchmarks soigneusement sélectionnés [ici](https://huggingface
|
|
47 |
|
48 |
## Un Enjeu Stratégique
|
49 |
|
50 |
-
Dans l'écosystème mondial de l'IA archi dominé par la langue anglaise et quelques acteurs américains ou chinois, la voix francophone mérite d'être entendue et amplifiée. En donnant un aperçu honnête des LLMs qui capturent la richesse et les nuances de notre langue, nous nous ouvrons de nouvelles perspectives d'indépendance et de souverraineté dans ce nouveau paradigme
|
51 |
|
52 |
Pour participer, soumettez votre modèle dans la section "🚀 submit here"
|
53 |
"""
|
@@ -65,7 +65,7 @@ Nous utilisons une version adaptée de LM Evaluation Harness [github original](h
|
|
65 |
1) Configurer le dépôt : Clonez notre repo github "lm-evaluation-harness-multilingual" - [code open-source] (https://github.com/mohamedalhajjar/lm-evaluation-harness-multilingual) et suivez les instructions d'installation.
|
66 |
2) Effectuer les évaluations : Pour obtenir les mêmes résultats que ceux du classement (certains tests peuvent montrer de petites variations), utilisez la commande suivante, en l'ajustant à votre modèle. Par exemple, avec le modèle Claire du Consortium OpenLLM France :
|
67 |
```python
|
68 |
-
lm_eval --model vllm --model_args="pretrained=OpenLLM-France/Claire-7B-FR-Instruct-0.1,tensor_parallel_size=1,dtype=auto,gpu_memory_utilization=0.8,data_parallel_size=4" --tasks=leaderboard-fr --batch_size=auto
|
69 |
```
|
70 |
## Remarques techniques :
|
71 |
- Nous utilisons actuellement "vllm", qui pourrait différer légèrement par rapport au résultat que vous pourriez avoir avec les standards de LM Evaluation Harness. vLLM est une bibliothèque open source conçue pour optimiser l'inférence de LLM, ce qui est adapté à notre cas d'usage et philosophie.
|
|
|
22 |
# Your leaderboard name
|
23 |
TITLE = """<h1 align="center" id="space-title"> OpenLLM French leaderboard 🇫🇷</h1>"""
|
24 |
|
25 |
+
|
26 |
INTRODUCTION_TEXT = """
|
27 |
# Manifeste du Leaderboard 🇫🇷
|
28 |
|
29 |
**Création d'une plateforme d'évaluation pour les modèles de langage (LLM) francophones.**
|
30 |
Chère communauté, vous voici sur le Leaderboard, un classement open-source dédiée à l'évaluation des grands modèles de langage (LLM) en français. Notre mission est de mettre en lumière spécifiquement les modèles qui excellent en langue française, en fournissant des benchmarks et standards qui permettent de donner le "La" sur les avancées techniques dans les LLM en français.
|
31 |
|
32 |
+
Nous sommes convaincus que les LLM sont une technologie de pointe représentent l'avenir de la compréhension et de la génération du langage. Ces modèles ouvrent des pans nouveaux de productivité pour tout notre tissu d'entreprises françaises, mais auront également un impact profond sur la vie de nos concitoyens, l'éducation et dans l'héritage numérique de notre langue. Il devient urgent et vital d'oeuvrer à plus de transparence dans ce domaine stratégique des LLM dits multi-lingues. La première pièce à l'édifice est donc la mise en place d'une évaluation systématique et systémique des modèles actuels et futurs.
|
33 |
|
34 |
## Notre Mission
|
35 |
|
|
|
47 |
|
48 |
## Un Enjeu Stratégique
|
49 |
|
50 |
+
Dans l'écosystème mondial de l'IA archi dominé par la langue anglaise et quelques acteurs américains ou chinois, la voix francophone mérite d'être entendue et amplifiée. En donnant un aperçu honnête des LLMs qui capturent la richesse et les nuances de notre langue, nous nous ouvrons de nouvelles perspectives d'indépendance et de souverraineté dans ce nouveau paradigme tech.
|
51 |
|
52 |
Pour participer, soumettez votre modèle dans la section "🚀 submit here"
|
53 |
"""
|
|
|
65 |
1) Configurer le dépôt : Clonez notre repo github "lm-evaluation-harness-multilingual" - [code open-source] (https://github.com/mohamedalhajjar/lm-evaluation-harness-multilingual) et suivez les instructions d'installation.
|
66 |
2) Effectuer les évaluations : Pour obtenir les mêmes résultats que ceux du classement (certains tests peuvent montrer de petites variations), utilisez la commande suivante, en l'ajustant à votre modèle. Par exemple, avec le modèle Claire du Consortium OpenLLM France :
|
67 |
```python
|
68 |
+
lm_eval --model vllm --model_args="pretrained=OpenLLM-France/Claire-7B-FR-Instruct-0.1,tensor_parallel_size=1,dtype=auto,gpu_memory_utilization=0.8,data_parallel_size=4" --tasks=leaderboard-fr --batch_size=auto
|
69 |
```
|
70 |
## Remarques techniques :
|
71 |
- Nous utilisons actuellement "vllm", qui pourrait différer légèrement par rapport au résultat que vous pourriez avoir avec les standards de LM Evaluation Harness. vLLM est une bibliothèque open source conçue pour optimiser l'inférence de LLM, ce qui est adapté à notre cas d'usage et philosophie.
|