Hungarian Reading Comprehension with finetuned mT5 base model
For further details, see our demo site.
Results
Model | Exact Match | F1 |
---|---|---|
huBERT | 64.50 | 69.03 |
mT5 | 69.51 | 76.26 |
Usage with pipeline
from transformers import pipeline
context = "A kedd hajnalban elhunyt Somló Tamásról emlékezett meg zenésztársa, Presser Gábor. Somló Tamás nagyszerű egyénisége, énekhangja és éneklési stílusa egészen egyedülálló volt' – fogalmazott. '1968 lehetett, amikor először találkoztunk, gyakorlatilag váltottuk egymást az Omega együttesben. Tamás akkor indult el az artista pályán, miközben zenélt is. Az Omegában csak néhányszor játszottunk együtt, miután én beléptem, ő éveket töltött külföldön artistaként, aztán összefutottunk az LGT-ben, ennek már 43 éve' - idézte fel Presser Gábor. Somló Tamás színpadi jelenléte nagy húzóerőt jelentett a zenekar számára és zenészi képességeit mutatta az is, hogy amikor Frenreisz Károly helyett belépett az LGT-be, néhány hét alatt megtanult basszusgitározni."
question = "'Nem ismerek olyan embert, aki <mask> haragudott volna. Életét úgy fejezte be, ahogyan élt: utolsó fellépésére, amely talán egy hónappal ezelőtt lehetett, már nagyon nehezen tudott csak elmenni, de nem mondta le, mert Pécsett egy jótékonysági koncerten játszott beteg gyerekeknek' - mondta Presser Gábor."
text2text_generator = pipeline(task="text2text-generation", model="NYTK/reading-comprehension-hurc-mt5-hungarian")
print(text2text_generator(f"question: {question} context: {context}")[0]["generated_text"])
Citation
If you use this model, please cite the following paper:
@article {yang-ligeti-rc,
title = {Building machine reading comprehension model from scratch},
journal = {Annales Mathematicae et Informaticae},
year = {2023},
author = {Yang, Zijian Győző and Ligeti-Nagy, Noémi},
volume = {57},
pages = {107–-123},
doi = {10.33039/ami.2023.03.001}
}
- Downloads last month
- 3
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.