language:
- it
license: apache-2.0
datasets:
- squad_it
tags:
- Italian
- efficient
- sequence-to-sequence
- squad_it
- text2text-question-answering
- text2text-generation
widget:
- text: >-
In seguito all' evento di estinzione del Cretaceo-Paleogene, l' estinzione
dei dinosauri e il clima umido possono aver permesso alla foresta pluviale
tropicale di diffondersi in tutto il continente. Dal 66-34 Mya, la foresta
pluviale si estendeva fino a sud fino a 45°. Le fluttuazioni climatiche
degli ultimi 34 milioni di anni hanno permesso alle regioni della savana
di espandersi fino ai tropici. Durante l' Oligocene, ad esempio, la
foresta pluviale ha attraversato una banda relativamente stretta. Si
espandeva di nuovo durante il Miocene medio, poi si ritrasse ad una
formazione prevalentemente interna all' ultimo massimo glaciale. Tuttavia,
la foresta pluviale è riuscita ancora a prosperare durante questi periodi
glaciali, consentendo la sopravvivenza e l' evoluzione di un' ampia
varietà di specie. Domanda: La foresta pluviale amazzonica è diventata per
lo più una foresta interna intorno a quale evento globale?
- text: >-
L' embargo non era uniforme in tutta Europa. Dei nove membri della
Comunità Economica Europea (CEE), i Paesi Bassi hanno dovuto affrontare un
embargo totale, il Regno Unito e la Francia hanno ricevuto forniture quasi
ininterrotte (poichè si sono rifiutati di consentire all' America di
utilizzare i loro aerodromi e le armi e forniture embargo sia agli arabi
che agli israeliani), mentre gli altri sei hanno dovuto affrontare tagli
parziali. Il Regno Unito era tradizionalmente un alleato di Israele, e il
governo di Harold Wilson ha sostenuto gli israeliani durante la guerra dei
sei giorni. Il suo successore, Ted Heath, ribaltò questa politica nel
1970, chiedendo a Israele di ritirarsi ai suoi confini prima del 1967.
Domanda: Il Regno Unito e la Francia non hanno avuto interruzioni dell'
approvvigionamento petrolifero in quanto non hanno consentito a quale
paese di utilizzare il loro aeroporto?
- text: >-
Nel 1962, il grafico Paul Rand ridisegna il logo ABC nella sua forma più
conosciuta (e attuale) con le lettere minuscole "abc" racchiuse in un
unico cerchio nero. Il nuovo logo esordisce in onda per le promozioni di
ABC all' inizio della stagione 1963-64. Le lettere ricordano fortemente il
carattere tipografico Bauhaus disegnato da Herbert Bayer negli anni Venti,
ma condividono anche similitudini con diversi altri caratteri, come ITC
Avant Garde e Horatio, e lo Chalet più simile. La semplicità del logo ha
reso più facile la riprogettazione e la duplicazione, il che ha conferito
un beneficio per ABC (soprattutto prima dell' avvento della computer
grafica). Domanda: Di quale carattere tipografico ricordano le lettere
dell' iconico logo ABC?
- text: >-
La fotorespirazione può verificarsi quando la concentrazione di ossigeno è
troppo elevata. Rubisco non è in grado di distinguere molto bene tra
ossigeno e anidride carbonica, quindi può accidentalmente aggiungere O2
invece di CO2 a RuBP. Questo processo riduce l' efficienza della
fotosintesi: consuma ATP e ossigeno, rilascia CO2 e non produce zucchero.
Può sprecare fino alla metà del carbonio fissato dal ciclo di Calvin.
Diversi meccanismi si sono evoluti in diversi lignaggi che aumentano la
concentrazione di anidride carbonica rispetto all' ossigeno all' interno
del cloroplasto, aumentando l' efficienza della fotosintesi. Questi
meccanismi sono chiamati meccanismi di concentrazione dell' anidride
carbonica, o CCM. Tra questi figurano il metabolismo degli acidi
crassulaceanici, la fissazione del carbonio C4 e i pirenoidi. I
cloroplasti negli impianti C4 sono notevoli in quanto presentano un chiaro
dimorfismo cloroplastico. Domanda: Che cosa può fare rubisco per errore?
metrics:
- f1
- exact-match
model-index:
- name: it5-efficient-small-el32-question-answering
results:
- task:
type: question-answering
name: Question Answering
dataset:
type: squad_it
name: SQuAD-IT
metrics:
- type: f1
value: 0.747
name: Test F1
- type: exact-match
value: 0.645
name: Test Exact Match
thumbnail: https://gsarti.com/publication/it5/featured.png
IT5 Cased Small Efficient EL32 for Question Answering ⁉️ 🇮🇹
Shout-out to Stefan Schweter for contributing the pre-trained efficient model!
This repository contains the checkpoint for the IT5 Cased Small Efficient EL32 model fine-tuned on extractive question answering on the SQuAD-IT corpus as part of the experiments of the paper IT5: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation by Gabriele Sarti and Malvina Nissim.
A comprehensive overview of other released materials is provided in the gsarti/it5 repository. Refer to the paper for additional details concerning the reported scores and the evaluation approach.
Using the model
Model checkpoints are available for usage in Tensorflow, Pytorch and JAX. They can be used directly with pipelines as:
from transformers import pipelines
qa = pipeline("text2text-generation", model='it5/it5-efficient-small-el32-question-answering')
qa("In seguito all' evento di estinzione del Cretaceo-Paleogene, l' estinzione dei dinosauri e il clima umido possono aver permesso alla foresta pluviale tropicale di diffondersi in tutto il continente. Dal 66-34 Mya, la foresta pluviale si estendeva fino a sud fino a 45°. Le fluttuazioni climatiche degli ultimi 34 milioni di anni hanno permesso alle regioni della savana di espandersi fino ai tropici. Durante l' Oligocene, ad esempio, la foresta pluviale ha attraversato una banda relativamente stretta. Si espandeva di nuovo durante il Miocene medio, poi si ritrasse ad una formazione prevalentemente interna all' ultimo massimo glaciale. Tuttavia, la foresta pluviale è riuscita ancora a prosperare durante questi periodi glaciali, consentendo la sopravvivenza e l' evoluzione di un' ampia varietà di specie. Domanda: La foresta pluviale amazzonica è diventata per lo più una foresta interna intorno a quale evento globale?")
>>> [{"generated_text": "ultimo massimo glaciale"}]
or loaded using autoclasses:
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("it5/it5-efficient-small-el32-question-answering")
model = AutoModelForSeq2SeqLM.from_pretrained("it5/it5-efficient-small-el32-question-answering")
If you use this model in your research, please cite our work as:
@article{sarti-nissim-2022-it5,
title={{IT5}: Large-scale Text-to-text Pretraining for Italian Language Understanding and Generation},
author={Sarti, Gabriele and Nissim, Malvina},
journal={ArXiv preprint 2203.03759},
url={https://arxiv.org/abs/2203.03759},
year={2022},
month={mar}
}
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0003
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 7.0
Framework versions
- Transformers 4.15.0
- Pytorch 1.10.0+cu102
- Datasets 1.17.0
- Tokenizers 0.10.3