Datasets:
Tasks:
Token Classification
Modalities:
Text
Formats:
parquet
Languages:
French
Size:
10K - 100K
License:
File size: 4,538 Bytes
6bfb681 fc7a1c9 6bfb681 806bbed 6bfb681 fc7a1c9 6bfb681 fc7a1c9 6bfb681 806bbed 6bfb681 681fbe8 6bfb681 681fbe8 6bfb681 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 |
---
language:
- fr
license: lgpl
size_categories:
- 10K<n<100K
task_categories:
- token-classification
tags:
- pos
- DFP
- french prompts
annotations_creators:
- found
language_creators:
- found
multilinguality:
- monolingual
source_datasets:
- universal_dependencies_fr_sequoia
---
# universal_dependencies_fr_sequoia_fr_prompt_pos
## Summary
**universal_dependencies_fr_sequoia_fr_prompt_pos** is a subset of the [**Dataset of French Prompts (DFP)**](https://huggingface.co/datasets/CATIE-AQ/DFP).
It contains **27,804** rows that can be used for a part-of-speech task.
The original data (without prompts) comes from the dataset [universal_dependencies](https://huggingface.co/datasets/universal_dependencies) where only the French sequoia split has been kept.
A list of prompts (see below) was then applied in order to build the input and target columns and thus obtain the same format as the [xP3](https://huggingface.co/datasets/bigscience/xP3) dataset by Muennighoff et al.
## Prompts used
### List
21 prompts were created for this dataset. The logic applied consists in proposing prompts in the indicative tense, in the form of tutoiement and in the form of vouvoiement.
```
'Extraire les classes des mots du texte suivant : '+text,
'Extrais les classes des mots du texte suivant : '+text,
'Extrayez les classes des mots du texte suivant : '+text,
'Isoler les classes des mots du texte suivant : '+text,
'Isole les classes des mots du texte suivant : '+text,
'Isolez les classes des mots du texte suivant : '+text,
'Dégager les classes des mots dans le texte : '+text,
'Dégage les classes des mots dans le texte : '+text,
'Dégagez les classes des mots dans le texte : '+text,
'Générer les classes des mots issues du texte suivant : '+text,
'Génère les classes des mots issues du texte suivant : '+text,
'Générez les classes des mots issues du texte suivant : '+text,
'Trouver les classes des mots du texte : '+text,
'Trouve les classes des mots du texte : '+text,
'Trouvez les classes des mots du texte : '+text,
'Repérer les classes des mots présentes dans le texte suivant : '+text,
'Repère les classes des mots présentes dans le texte suivant : '+text,
'Repérez les classes des mots présentes dans le texte suivant : '+text,
'Indiquer les classes des mots du texte :'+text,
'Indique les classes des mots du texte : '+text,
'Indiquez les classes des mots du texte : '+text
```
### Features used in the prompts
In the prompt list above, `text` and `targets` have been constructed from:
```
fr_sequoia = load_dataset('universal_dependencies', 'fr_sequoia')
# text
fr_sequoia['train']['tokens'] = list(map(lambda i: ' '.join(fr_sequoia['train']['tokens'][i]), range(len(fr_sequoia['train']['tokens']))))
# targets
fr_sequoia['train']['upos'] = list(map(lambda x: x.replace("[","").replace("]","").replace('17','AUX').replace('16','VERB').replace('15','INTJ').replace('14','ADV').replace('13','_').replace('12','X').replace('11','PRON').replace('10','PROPN').replace('9','CCONJ').replace('8','DET').replace('7','PART').replace('6','ADJ').replace('5','SCONJ').replace('4','SYM').replace('3','NUM').replace('2','ADP').replace('1','PUNCT').replace('0','NOUN'), map(str,fr_sequoia['train']['upos'])))
```
# Splits
- `train` with 9,576 samples
- `valid` with 8,652 samples
- `test` with 9,576 samples
# How to use?
```
from datasets import load_dataset
dataset = load_dataset("CATIE-AQ/universal_dependencies_fr_sequoia_fr_prompt_pos")
```
# Citation
## Original data
> @inproceedings{candito:hal-00698938,
TITLE = {{Le corpus Sequoia : annotation syntaxique et exploitation pour l'adaptation d'analyseur par pont lexical}},
AUTHOR = {Candito, Marie and Seddah, Djam{\'e}},
URL = {https://inria.hal.science/hal-00698938},
BOOKTITLE = {{TALN 2012 - 19e conf{\'e}rence sur le Traitement Automatique des Langues Naturelles}},
ADDRESS = {Grenoble, France},
YEAR = {2012},
MONTH = Jun,
PDF = {https://inria.hal.science/hal-00698938/file/canditoseddah-taln2012-final.pdf},
HAL_ID = {hal-00698938},
HAL_VERSION = {v1},
}
## This Dataset
> @misc {centre_aquitain_des_technologies_de_l'information_et_electroniques_2023,
author = { {Centre Aquitain des Technologies de l'Information et Electroniques} },
title = { DFP (Revision 1d24c09) },
year = 2023,
url = { https://huggingface.co/datasets/CATIE-AQ/DFP },
doi = { 10.57967/hf/1200 },
publisher = { Hugging Face }
}
## License
LGPL-LR |