asahi417's picture
model update
388a690
|
raw
history blame
6.87 kB
metadata
license: cc-by-4.0
metrics:
  - bleu4
  - meteor
  - rouge-l
  - bertscore
  - moverscore
language: es
datasets:
  - lmqg/qg_esquad
pipeline_tag: text2text-generation
tags:
  - answer extraction
widget:
  - text: >-
      <hl> En la diáspora somalí, múltiples eventos islámicos de recaudación de
      fondos se llevan a cabo cada año en ciudades como Birmingham, Londres,
      Toronto y Minneapolis, donde los académicos y profesionales somalíes dan
      conferencias y responden preguntas de la audiencia. <hl> El propósito de
      estos eventos es recaudar dinero para nuevas escuelas o universidades en
      Somalia, para ayudar a los somalíes que han sufrido como consecuencia de
      inundaciones y / o sequías, o para reunir fondos para la creación de
      nuevas mezquitas como.
    example_title: Answering Extraction Example 1
  - text: >-
      <hl> Los estudiosos y los histori a dores están divididos en cuanto a qué
      evento señala el final de la era helenística. <hl> El período helenístico
      se puede ver que termina con la conquista final del corazón griego por
      Roma en 146 a. C. tras la guerra aquea, con la derrota final del reino
      ptolemaico en la batalla de Actium en 31 a. Helenístico se distingue de
      helénico en que el primero abarca toda la esfera de influencia griega
      antigua directa, mientras que el segundo se refiere a la propia Grecia.
    example_title: Answering Extraction Example 2
model-index:
  - name: lmqg/mbart-large-cc25-esquad-ae
    results:
      - task:
          name: Text2text Generation
          type: text2text-generation
        dataset:
          name: lmqg/qg_esquad
          type: default
          args: default
        metrics:
          - name: BLEU4 (Answer Extraction)
            type: bleu4_answer_extraction
            value: 22.26
          - name: ROUGE-L (Answer Extraction)
            type: rouge_l_answer_extraction
            value: 46.63
          - name: METEOR (Answer Extraction)
            type: meteor_answer_extraction
            value: 42.84
          - name: BERTScore (Answer Extraction)
            type: bertscore_answer_extraction
            value: 87.79
          - name: MoverScore (Answer Extraction)
            type: moverscore_answer_extraction
            value: 78.33
          - name: AnswerF1Score (Answer Extraction)
            type: answer_f1_score__answer_extraction
            value: 71.88
          - name: AnswerExactMatch (Answer Extraction)
            type: answer_exact_match_answer_extraction
            value: 53.78

Model Card of lmqg/mbart-large-cc25-esquad-ae

This model is fine-tuned version of facebook/mbart-large-cc25 for answer extraction on the lmqg/qg_esquad (dataset_name: default) via lmqg.

Overview

Usage

from lmqg import TransformersQG

# initialize model
model = TransformersQG(language="es", model="lmqg/mbart-large-cc25-esquad-ae")

# model prediction
answers = model.generate_a("a noviembre , que es también la estación lluviosa.")
  • With transformers
from transformers import pipeline

pipe = pipeline("text2text-generation", "lmqg/mbart-large-cc25-esquad-ae")
output = pipe("<hl> En la diáspora somalí, múltiples eventos islámicos de recaudación de fondos se llevan a cabo cada año en ciudades como Birmingham, Londres, Toronto y Minneapolis, donde los académicos y profesionales somalíes dan conferencias y responden preguntas de la audiencia. <hl> El propósito de estos eventos es recaudar dinero para nuevas escuelas o universidades en Somalia, para ayudar a los somalíes que han sufrido como consecuencia de inundaciones y / o sequías, o para reunir fondos para la creación de nuevas mezquitas como.")

Evaluation

Score Type Dataset
AnswerExactMatch 53.78 default lmqg/qg_esquad
AnswerF1Score 71.88 default lmqg/qg_esquad
BERTScore 87.79 default lmqg/qg_esquad
Bleu_1 33 default lmqg/qg_esquad
Bleu_2 28.48 default lmqg/qg_esquad
Bleu_3 25.1 default lmqg/qg_esquad
Bleu_4 22.26 default lmqg/qg_esquad
METEOR 42.84 default lmqg/qg_esquad
MoverScore 78.33 default lmqg/qg_esquad
ROUGE_L 46.63 default lmqg/qg_esquad

Training hyperparameters

The following hyperparameters were used during fine-tuning:

  • dataset_path: lmqg/qg_esquad
  • dataset_name: default
  • input_types: ['paragraph_sentence']
  • output_types: ['answer']
  • prefix_types: None
  • model: facebook/mbart-large-cc25
  • max_length: 512
  • max_length_output: 32
  • epoch: 13
  • batch: 8
  • lr: 0.0001
  • fp16: False
  • random_seed: 1
  • gradient_accumulation_steps: 8
  • label_smoothing: 0.15

The full configuration can be found at fine-tuning config file.

Citation

@inproceedings{ushio-etal-2022-generative,
    title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
    author = "Ushio, Asahi  and
        Alva-Manchego, Fernando  and
        Camacho-Collados, Jose",
    booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
    month = dec,
    year = "2022",
    address = "Abu Dhabi, U.A.E.",
    publisher = "Association for Computational Linguistics",
}