Aximande commited on
Commit
a89cc2d
1 Parent(s): 203cc62

fix - alexlav : simplifcation du discours

Browse files
Files changed (1) hide show
  1. src/display/about.py +4 -4
src/display/about.py CHANGED
@@ -22,14 +22,14 @@ class Tasks(Enum):
22
  # Your leaderboard name
23
  TITLE = """<h1 align="center" id="space-title"> OpenLLM French leaderboard 🇫🇷</h1>"""
24
 
25
- # What does your leaderboard evaluate?
26
  INTRODUCTION_TEXT = """
27
  # Manifeste du Leaderboard 🇫🇷
28
 
29
  **Création d'une plateforme d'évaluation pour les modèles de langage (LLM) francophones.**
30
  Chère communauté, vous voici sur le Leaderboard, un classement open-source dédiée à l'évaluation des grands modèles de langage (LLM) en français. Notre mission est de mettre en lumière spécifiquement les modèles qui excellent en langue française, en fournissant des benchmarks et standards qui permettent de donner le "La" sur les avancées techniques dans les LLM en français.
31
 
32
- Nous sommes convaincus que les LLM sont une technologie de pointe représentent l'avenir de la compréhension et de la génération du langage. Ces modèles constituent non seulement des perpesctives de productivité pour nos entreprises, mais auront également un impact profond sur la vie de nos concitoyens et dans l'héritage numérique de notre langue. C'est pourquoi nous croyons fermement qu'il est crucial de promouvoir la souveraineté, la transparence et l'ouverture dans ce domaine stratégique des LLM dits multi-langue. La première étape est donc la mise en place d'une évaluation systématique et systémique des modèles actuels et futurs.
33
 
34
  ## Notre Mission
35
 
@@ -47,7 +47,7 @@ Découvrez nos benchmarks soigneusement sélectionnés [ici](https://huggingface
47
 
48
  ## Un Enjeu Stratégique
49
 
50
- Dans l'écosystème mondial de l'IA archi dominé par la langue anglaise et quelques acteurs américains ou chinois, la voix francophone mérite d'être entendue et amplifiée. En donnant un aperçu honnête des LLMs qui capturent la richesse et les nuances de notre langue, nous nous ouvrons de nouvelles perspectives d'indépendance et de souverraineté dans ce nouveau paradigme. Cette initiative va au-delà de la simple création d'outils ; elle représente une opportunité de façonner un avenir numérique qui reflète notre identité culturelle. C'est un appel à l'action pour que chaque chercheur, développeur et entrepreneur francophone contribue à cette mosaïque technologique. Ensemble, nous pouvons créer des solutions d'IA qui non seulement parlent notre langue, mais comprennent aussi notre contexte, nos valeurs et nos aspirations collectives.
51
 
52
  Pour participer, soumettez votre modèle dans la section "🚀 submit here"
53
  """
@@ -65,7 +65,7 @@ Nous utilisons une version adaptée de LM Evaluation Harness [github original](h
65
  1) Configurer le dépôt : Clonez notre repo github "lm-evaluation-harness-multilingual" - [code open-source] (https://github.com/mohamedalhajjar/lm-evaluation-harness-multilingual) et suivez les instructions d'installation.
66
  2) Effectuer les évaluations : Pour obtenir les mêmes résultats que ceux du classement (certains tests peuvent montrer de petites variations), utilisez la commande suivante, en l'ajustant à votre modèle. Par exemple, avec le modèle Claire du Consortium OpenLLM France :
67
  ```python
68
- lm_eval --model vllm --model_args="pretrained=OpenLLM-France/Claire-7B-FR-Instruct-0.1,tensor_parallel_size=1,dtype=auto,gpu_memory_utilization=0.8,data_parallel_size=4" --tasks=leaderboard-fr --batch_size=auto --output_path=/home/claire
69
  ```
70
  ## Remarques techniques :
71
  - Nous utilisons actuellement "vllm", qui pourrait différer légèrement par rapport au résultat que vous pourriez avoir avec les standards de LM Evaluation Harness. vLLM est une bibliothèque open source conçue pour optimiser l'inférence de LLM, ce qui est adapté à notre cas d'usage et philosophie.
 
22
  # Your leaderboard name
23
  TITLE = """<h1 align="center" id="space-title"> OpenLLM French leaderboard 🇫🇷</h1>"""
24
 
25
+
26
  INTRODUCTION_TEXT = """
27
  # Manifeste du Leaderboard 🇫🇷
28
 
29
  **Création d'une plateforme d'évaluation pour les modèles de langage (LLM) francophones.**
30
  Chère communauté, vous voici sur le Leaderboard, un classement open-source dédiée à l'évaluation des grands modèles de langage (LLM) en français. Notre mission est de mettre en lumière spécifiquement les modèles qui excellent en langue française, en fournissant des benchmarks et standards qui permettent de donner le "La" sur les avancées techniques dans les LLM en français.
31
 
32
+ Nous sommes convaincus que les LLM sont une technologie de pointe représentent l'avenir de la compréhension et de la génération du langage. Ces modèles ouvrent des pans nouveaux de productivité pour tout notre tissu d'entreprises françaises, mais auront également un impact profond sur la vie de nos concitoyens, l'éducation et dans l'héritage numérique de notre langue. Il devient urgent et vital d'oeuvrer à plus de transparence dans ce domaine stratégique des LLM dits multi-lingues. La première pièce à l'édifice est donc la mise en place d'une évaluation systématique et systémique des modèles actuels et futurs.
33
 
34
  ## Notre Mission
35
 
 
47
 
48
  ## Un Enjeu Stratégique
49
 
50
+ Dans l'écosystème mondial de l'IA archi dominé par la langue anglaise et quelques acteurs américains ou chinois, la voix francophone mérite d'être entendue et amplifiée. En donnant un aperçu honnête des LLMs qui capturent la richesse et les nuances de notre langue, nous nous ouvrons de nouvelles perspectives d'indépendance et de souverraineté dans ce nouveau paradigme tech.
51
 
52
  Pour participer, soumettez votre modèle dans la section "🚀 submit here"
53
  """
 
65
  1) Configurer le dépôt : Clonez notre repo github "lm-evaluation-harness-multilingual" - [code open-source] (https://github.com/mohamedalhajjar/lm-evaluation-harness-multilingual) et suivez les instructions d'installation.
66
  2) Effectuer les évaluations : Pour obtenir les mêmes résultats que ceux du classement (certains tests peuvent montrer de petites variations), utilisez la commande suivante, en l'ajustant à votre modèle. Par exemple, avec le modèle Claire du Consortium OpenLLM France :
67
  ```python
68
+ lm_eval --model vllm --model_args="pretrained=OpenLLM-France/Claire-7B-FR-Instruct-0.1,tensor_parallel_size=1,dtype=auto,gpu_memory_utilization=0.8,data_parallel_size=4" --tasks=leaderboard-fr --batch_size=auto
69
  ```
70
  ## Remarques techniques :
71
  - Nous utilisons actuellement "vllm", qui pourrait différer légèrement par rapport au résultat que vous pourriez avoir avec les standards de LM Evaluation Harness. vLLM est une bibliothèque open source conçue pour optimiser l'inférence de LLM, ce qui est adapté à notre cas d'usage et philosophie.