Datasets:
ufal
/

lang
stringclasses
8 values
year
stringclasses
27 values
title_en
stringlengths
4
253
title_cs
stringlengths
0
251
abstract_en
stringlengths
49
5.12k
abstract_cs
stringlengths
33
3.92k
authors
sequencelengths
1
577
s2_url
stringlengths
79
79
title_fr
stringclasses
3 values
abstract_fr
stringclasses
3 values
title_ru
stringclasses
13 values
abstract_ru
stringclasses
11 values
title_sk
stringclasses
2 values
abstract_sk
stringclasses
2 values
title_de
stringclasses
4 values
abstract_de
stringclasses
4 values
title_dsb
stringclasses
2 values
abstract_dsb
stringclasses
2 values
title_lt
stringclasses
1 value
abstract_lt
stringclasses
1 value
en
2022
THEaiTRE 1.0: Interactive generation of theatre play scripts
THEaiTRE 1.0: Interaktivní generování scénářů divadelních her
Hacking the GPT-2 language model Building a web application Generating a theatre play script Performing the play on stage Demo of the tool
Hackování jazykového modelu GPT-2 Sestavení webové aplikace Vytváří se scénář divadelní hry Představení hry na jevišti Demo nástroje
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/25351ffac3f37feacc57ef72d79e4388b1a93cb7/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
THEaiTRE: Automatically generating theatre play scripts
THEaiTRE: Automatické generování scénářů divadelních her
In February 2021, we staged the first theatre play for which 90% of the script was automatically generated by an artificial intelligence system. The THEaiTRobot system is based on the GPT-2 language model, created by the OpenAI consortium, complemented with automated translation. We had to adapt the model in various ways, especially to avoid repetitiveness and forgetting of context, and to stick to a limited set of characters. As input for the system, we used short starting prompts (scene setting and first few lines of dialogue), prepared by a dramaturge, which were expanded into full scenes by THEaiTRobot. The script was then post-edited and put on stage. Reviews mostly noted that AI cannot really write a good play (yet), but acknowledged that the performance was mostly interesting and entertaining to watch.
V únoru 2021 jsme inscenovali první divadelní hru, pro kterou bylo 90% scénáře automaticky generováno systémem umělé inteligence. Systém THEaiTRobot je založen na jazykovém modelu GPT-2, vytvořeném konsorciem OpenAI, doplněném o automatizovaný překlad. Model jsme museli různě upravovat, zejména abychom se vyhnuli opakování a zapomínání kontextu, a abychom se drželi omezené sady postav. Jako vstup do systému jsme použili krátké startovní výzvy (nastavení scény a prvních pár řádků dialogu), připravené dramaturgem, které byly THEaiTRobotem rozšířeny do plných scén. Scénář byl poté post-editován a uveden na jeviště. Recenze většinou konstatovaly, že AI opravdu nemůže napsat dobrou hru (zatím), ale uznaly, že představení bylo většinou zajímavé a zábavné sledovat.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/5cf787dcb21cc9db4a689c57702d0a247222a3ff/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
THEaiTRE: Challenges in automated generation of theatre play scripts
THEaiTRE: Výzvy v automatizované tvorbě scénářů divadelních her
The THEaiTRE project explored generating theatre scripts automatically using large pretrained generative language models embedded into an interactive tool. We will present many of the challenges we faced and solutions we proposed, including both the more successful as well as the less successful ones; still many of the challenges remain unsolved. The topics discussed will include character personalities and consistency, limited context and automated summarization, two-step hierarchical generation approach, machine translation of dialogues, fine-tuning and adapting the models to theatre scripts, dramatic situations abstraction, and other.
Projekt THEaiTRE zkoumal generování divadelních scénářů automaticky pomocí velkých předem vycvičených generativních jazykových modelů vložených do interaktivního nástroje. Představíme mnoho výzev, kterým jsme čelili, a řešení, která jsme navrhli, včetně těch úspěšnějších i těch méně úspěšných; stále mnoho výzev zůstává nevyřešeno. Diskutovaná témata budou zahrnovat osobnosti postav a konzistenci, omezený kontext a automatizovanou sumarizaci, dvoustupňový hierarchický generační přístup, strojový překlad dialogů, dolaďování a přizpůsobení modelů divadelním scénářům, abstrakci dramatických situací a další.
[ "Rudolf Rosa" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
THEaiTRE: Interactive generation of theatre play scripts
THEaiTRE: Interaktivní generování scénářů divadelních her
Presentation of interactive theatre script generation for employees of the Novartis company.
Prezentace interaktivního generování scnářů divadelních her pro zaměstnance společnosti Novartis.
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/25351ffac3f37feacc57ef72d79e4388b1a93cb7/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
THEaiTRE: Artificial Intelligence as a (co)author of a theatre play?
THEaiTRE: Umělá inteligence (spolu)autorem divadelní hry?
The THEaiTRE project is an interdisciplinary project of applied research in cooperation of the Faculty of Mathematics and Physics of Charles University, Švandova Theatre and DAMU. As part of the project, theatre experts together with computer linguists designed and built the THEaiTRobot system, based on the generative language model GPT-2 and adapted to the interactive generation of plays scripts. With the help of this system, two plays were subsequently created, which were performed in the classical way in Švandova Theatre, with 90% of the script being automatically generated. We are currently preparing other similar projects, focused on computer modelling of Czech poetry or on an intelligent assistant for beginning writers.
Projekt THEaiTRE je interdisciplinárním projektem aplikovaného výzkumu ve spolupráci Matematicko-fyzikální fakulty Univerzity Karlovy, Švandova divadla a DAMU. V rámci projektu divadelní odborníci společně s počítačovými lingvisty navrhli a sestavili systém THEaiTRobot, založený na generativním jazykovém modelu GPT-2 a adaptovaný na interaktivní generování scénářů divadelních her. S pomocí tohoto systému následně vznikly dvě divadelní hry, které byly klasickým způsobem uvedeny ve Švandově divadle, přičemž 90 % scénáře je automaticky vygenerováno. V současné době chystáme další podobné projekty, zaměřené na počítačové modelování české poezie či na inteligentního asistenta pro začínající spisovatele.
[ "Rudolf Rosa" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Artificial intelligence in theatre
Umělá inteligence v divadle
A talk for students of the senior university about artificial intelligence in theatre
Přednáška pro studenty univerzity třetího věku o umělé inteligenci v divadle
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/4c3642b5957966ab93cd65664cb8aec99202fdaf/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Life with Artificial Intelligence
Život s umělou inteligencí
AI, umělá inteligence, chytrá zařízení, strojové učení... Tato slova kolem sebe slýcháme stále častěji. Umělá inteligence postupně proniká do mnoha oborů lidské činnosti, od vývoje nových léků přes psaní divadelních her až po náboženství. Je to ale všechno stejná umělá inteligence? Co umí? Jak se používá? A co to vlastně je AI?
AI, artificial intelligence, smart devices, machine learning... We hear these words around us more and more. Artificial intelligence is gradually infiltrating many fields of human activity, from the development of new drugs to the writing of plays to religion. But is it all the same artificial intelligence? What does it do? How is it used? And what exactly is AI?
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/c583c7aabacb19e9ac14024d812dc4be819b1044/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Life with Artificial Intelligence
Život s umělou inteligencí
Popularisation lecture for 8th and 9th form students with the topic of artificial intelligence
Popularizační přednáška pro žáky 8. a 9. tříd ZŠ na téma umělé inteligence
[ "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/c583c7aabacb19e9ac14024d812dc4be819b1044/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
THEaiTRobot 2.0
THEaiTRobot 2.0
The THEaiTRobot 2.0 tool allows the user to interactively generate scripts for individual theatre play scenes.
Nástroj THEaiTRobot 2.0 umožňuje uživateli interaktivně generovat scénáře pro jednotlivé divadelní scény.
[ "Rudolf Rosa", "Ondřej Dušek", "Tom Kocmi", "David Mareček", "Tomáš Musil", "Patrícia Schmidtová", "Dominik Jurko", "Ondřej Bojar", "Daniel Hrbek", "David Košťák", "Martina Kinská", "Marie Nováková", "Josef Doležal", "Klára Vosecká", "Alisa Zakhtarenko", "Saad Obaid ul Islam" ]
https://www.semanticscholar.org/paper/19c1b00b95c569bc8a2016a09ea22f6e5b211d46/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
THEaiTRobot 2.0 Demo
Demo THEaiTRobota 2.0
More complex two-step variant. First generates a synopsis from a play name, then generates a script from the synopsis.
Složitější dvoukroková varianta. Nejprve z názvu hry generuje synopsi, poté ze synopse generuje scénář.
[ "Rudolf Rosa", "Ondřej Dušek", "Tom Kocmi", "David Mareček", "Tomáš Musil", "Patrícia Schmidtová", "Dominik Jurko", "Ondřej Bojar", "Daniel Hrbek", "David Košťák", "Martina Kinská", "Marie Nováková", "Josef Doležal", "Klára Vosecká", "Alisa Zakhtarenko", "Saad Obaid ul Islam", "Tomáš Studeník", "Petr Žabka" ]
https://www.semanticscholar.org/paper/19c1b00b95c569bc8a2016a09ea22f6e5b211d46/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Czech and English abstracts of ÚFAL papers (2022-11-11)
České a anglické abstrakty článků ÚFALu (2022-11-11)
This is a parallel corpus of Czech and mostly English abstracts of scientific papers and presentations published by authors from the Institute of Formal and Applied Linguistics, Charles University in Prague. For each publication record, the authors are obliged to provide both the original abstract (in Czech or English), and its translation (English or Czech) in the internal Biblio system. The data was filtered for duplicates and missing entries, ensuring that every record is bilingual. Additionally, records of published papers which are indexed by SemanticScholar contain the respective link. The dataset was created from September 2022 image of the Biblio database and is stored in JSONL format, with each line corresponding to one record.
Jedná se o paralelní korpus českých a převážně anglických abstraktů vědeckých prací a prezentací publikovaných autory z Ústavu formální a aplikované lingvistiky Univerzity Karlovy v Praze. U každého publikačního záznamu jsou autoři povinni uvést jak původní abstrakt (v češtině nebo angličtině), tak jeho překlad (v angličtině nebo češtině) v interním systému Biblio. Údaje byly filtrovány na duplicity a chybějící záznamy, aby každý záznam byl dvojjazyčný. Navíc záznamy publikovaných prací, které jsou indexovány společností SemanticScholar, obsahují příslušný odkaz. Datový soubor byl vytvořen z exportu databáze Biblio ze září 2022 a je uložen ve formátu JSONL, přičemž každý řádek odpovídá jednomu záznamu.
[ "Rudolf Rosa", "Vilém Zouhar" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Generating theatre play scripts and Adding and subtracting word senses
Generování scénářů divadelních her a Sčítání a odčítání významů slov
We presented Generating theatre play scripts (THEaiTRE) and Adding and subtracting word senses (word embeddings) to the prospective students
Potenciálním studentům jsme představili Generování scénářů divadelních her (THEaiTRE) a Sčítání a odčítání významů slov (word embeddings)
[ "Rudolf Rosa", "Zdeněk Kasner", "Tomáš Musil" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
GPT-2-based Human-in-the-loop Theatre Play Script Generation
Interaktivní generování scénářů divadelních her založené na GPT-2
We experiment with adapting generative language models for the generation of long coherent narratives in the form of theatre plays. Since fully automatic generation of whole plays is not currently feasible, we created an interactive tool that allows a human user to steer the generation somewhat while minimizing intervention. We pursue two approaches to long-text generation: a flat generation with summarization of context, and a hierarchical text-to-text two-stage approach, where a synopsis is generated first and then used to condition generation of the final script. Our preliminary results and discussions with theatre professionals show improvements over vanilla language model generation, but also identify important limitations of our approach.
Experimentujeme s adaptací generativních jazykových modelů pro generování dlouhých souvislých vyprávění v podobě divadelních her. Protože plně automatické generování celých her není v současné době proveditelné, vytvořili jsme interaktivní nástroj, který umožňuje lidskému uživateli poněkud nasměrovat generování a zároveň minimalizovat zásahy. Pro generování dlouhých textů sledujeme dva přístupy: ploché generování se sumarizací kontextu a hierarchický dvoufázový přístup text-to-text, kdy je nejprve vygenerována synopse a poté použita k podmiňování generování konečného scénáře. Naše předběžné výsledky a diskuse s divadelními profesionály ukazují zlepšení oproti základnímu generování, ale také identifikují důležitá omezení našeho přístupu.
[ "Rudolf Rosa", "Patrícia Schmidtová", "Ondřej Dušek", "Tomáš Musil", "David Mareček", "Saad Obaid ul Islam", "Marie Nováková", "Klára Vosecká", "Josef Doležal" ]
https://www.semanticscholar.org/paper/b571a0d60859b9a44cfa86c4e159f27473c6942e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
THEaiTRobot: An Interactive Tool for Generating Theatre Play Scripts
THEaiTRobot: Interaktivní nástroj pro generování scénářů divadelních her
We present a free online demo of THEaiTRobot, an open-source bilingual tool for interactively generating theatre play scripts, in two versions. THEaiTRobot 1.0 uses the GPT-2 language model with minimal adjustments. THEaiTRobot 2.0 uses two models created by fine-tuning GPT-2 on purposefully collected and processed datasets and several other components, generating play scripts in a hierarchical fashion (title → synopsis → script). The underlying tool is used in the THEaiTRE project to generate scripts for plays, which are then performed on stage by a professional theatre.
Představujeme volně dostupné online demo THEaiTRobot, dvojjazyčný nástroj s otevřeným zdrojovým kódem pro interaktivní generování scénářů divadelních her, ve dvou verzích. THEaiTRobot 1.0 používá jazykový model GPT-2 s minimálními úpravami. THEaiTRobot 2.0 používá dva modely vytvořené doladěním GPT-2 na cíleně shromážděných a zpracovaných datových souborech a několika dalších komponentách, které hierarchicky generují scénáře divadelních her (název → synopse → skript). Podkladový nástroj se používá v projektu THEaiTRE pro generování scénářů divadelních her, které pak na jevišti hraje profesionální divadlo.
[ "Rudolf Rosa", "Patrícia Schmidtová", "Alisa Zakhtarenko", "Ondřej Dušek", "Tomáš Musil", "David Mareček", "Saad Obaid ul Islam", "Marie Nováková", "Klára Vosecká", "Daniel Hrbek", "David Košťák" ]
https://www.semanticscholar.org/paper/19c1b00b95c569bc8a2016a09ea22f6e5b211d46/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Improving Both Domain Robustness and Domain Adaptability in Machine Translation
Zlepšení doménové robustnosti a doménové adaptability strojového překladu
We consider two problems of NMT domain adaptation using meta-learning. First, we want to reach domain robustness, i.e., we want to reach high quality on both domains seen in the training data and unseen domains. Second, we want our systems to be adaptive, i.e., making it possible to finetune systems with just hundreds of in-domain parallel sentences. We study the domain adaptability of meta-learning when improving the domain robustness of the model. In this paper, we propose a novel approach, RMLNMT (Robust Meta-Learning Framework for Neural Machine Translation Domain Adaptation), which improves the robustness of existing meta-learning models. More specifically, we show how to use a domain classifier in curriculum learning and we integrate the word-level domain mixing model into the meta-learning framework with a balanced sampling strategy. Experiments on English-German and English-Chinese translation show that RMLNMT improves in terms of both domain robustness and domain adaptability in seen and unseen domains.
V článku řešíme dva komplementární problémy doménové adaptace neuronového strojového překladu za pomocí meta-učení, tzv. meta-learningu. Zaprvé, chceme dosáhnout doménové robustnosti, tj. chceme dosáhnout vysoké kvality překladu jak na doménách, které jsou v trénovacích datech, tak na doménách, které v trénovacích datech nejsou zastoupené. Zadruhé, chceme, aby naše systémy byly snadno adaptibilní, tj. aby umožňovaly dotrénování (tzv. finetuning) systému na novou doménu za použití řádově stovek paralelních vět z dané domény. V tomto článku navrhujeme nový přístup, RMLNMT (Robust Meta-Learning Framework for Neural Machine Translation Domain Adaptation), který zlepšuje robustnost stávajících přístupů založených na meta-learningu. Dále ukazujeme, jak používat doménový klasifikátor v postupném učení (curriculum learning) a integrujeme model míchání domén na úrovni slov do meta-learningového rámce. Experimenty s anglicko-německým a anglicko-čínským překladem ukazují, že RMLNMT dosahuje zlepšení jak z hlediska doménové robustnosti, tak z hlediska adaptability na domény, bez ohledu na to, zda byly zastoupeny v trénovaích datech.
[ "Wen Lai", "Jindřich Libovický", "Alexander Fraser" ]
https://www.semanticscholar.org/paper/94fab497ce6fbb80f3c1688555c01d8f85eaee93/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Czech Grammar Error Correction with a Large and Diverse Corpus
Oprava gramatických chyb v češtině pomocí velkého a rozmanitého korpusu
We introduce a large and diverse Czech corpus annotated for grammatical error correction (GEC) with the aim to contribute to the still scarce data resources in this domain for languages other than English. The Grammar Error Correction Corpus for Czech (GECCC) offers a variety of four domains, covering error distributions ranging from high error density essays written by non-native speakers, to website texts, where errors are expected to be much less common. We compare several Czech GEC systems, including several Transformer-based ones, setting a strong baseline to future research. Finally, we meta-evaluate common GEC metrics against human judgements on our data. We make the new Czech GEC corpus publicly available under the CC BY-SA 4.0 license at http://hdl.handle.net/11234/1-4639.
Představujeme velký a různorodý český korpus pro opravu gramatických chyb s cílem přispět ke stále nedostatkovým datovým zdrojům v této doméně pro jiné jazyky než angličtinu. Korpus pro gramatickou opravu chyb pro češtinu (GECCC) nabízí čtyři domény, které pokrývají distribuci chyb od esejů s vysokou hustotou chyb napsaných nerodilými mluvčími až po texty webových stránek, kde jsou chyby mnohem méně časté. Porovnáváme několik českých GEC systémů, včetně několika na bázi architektury Transformer, a nastavujeme tak silnou baseline pro budoucí výzkum. V neposlední řadě také provádíme meta-evaluaci běžných GEC metrik pomocí ručního hodnocení na našich datech. Nový český GEC korpus zveřejňujeme pod licencí CC BY-SA 4.0 na adrese http://hdl.handle.net/11234/1-4639.
[ "Jakub Náplava", "Milan Straka", "Jana Straková", "Alexandr Rosen" ]
https://www.semanticscholar.org/paper/242f9c6c7be773ba75af054808830b34fef816e2/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Overview of the 9th Workshop on Asian Translation
Přehled 9. workshopu o překladech pro asijské jazyky
This paper presents the results of the shared tasks from the 9th workshop on Asian transla- tion (WAT2022). For the WAT2022, 8 teams submitted their translation results for the hu- man evaluation. We also accepted 4 research papers. About 300 translation results were sub- mitted to the automatic evaluation server, and selected submissions were manually evaluated.
Č lánek představuje výsledky soutěžních úloh z 9. workshopu pro asijský překlad (WAT2022). Osm týmů odeslalo své výsledky pro ruční hodnocení, z celkového počtu asi 300 automaticky hodnocených výstupů.
[ "Toshiaki Nakazawa", "Hideya Mino", "Isao Goto", "Raj Dabre", "Shohei Higashiyama", "Shantipriya Parida", "Anoop Kunchukuttan", "Makoto Morishita", "Ondřej Bojar", "Chenhui Chu", "Kaori Abe", "Yusuke Oda", "Sadao Kurohashi" ]
https://www.semanticscholar.org/paper/c5d2495fdbdcdc589f4608cc4c718ac866d1a63a/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Discussion after the performance AI: When a Robot Writes a Play
Diskuze po představení AI: Když robot píše hru
What does the robot think about, how does it feel and can it write a play? Snippets from the life of artificial intelligence in its own words. Futuristic Little Prince of the postpandemic era. Every reprise will be followed by a debate with experts in artificial intelligence and theater makers. The show is not only a testament to the current capabilities of computer technology, but also an engaging vision of the future world inspired by the sci-fi classics.
O čem robot přemýšlí, co cítí a dokáže napsat divadelní hru? Střípky ze života umělé inteligence jejími vlastními slovy. Futuristický Malý princ z doby postpandemické. Inscenace, po jejíž každé repríze následuje debata s odborníky na umělou inteligenci i divadelními tvůrci, je nejen svědectvím o současných schopnostech počítačových technologií, ale i poutavou vizí budoucího světa inspirující se v klasikách žánru sci-fi.
[ "Daniel Hrbek", "David Košťák", "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/9e3e68a22a61903bee336d88b3d986e789ca17d2/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
ParlaMint II: The Show Must Go On
ParlaMint II: Show musí pokračovat
In ParlaMint I, a CLARIN-ERIC supported project in pandemic times, a set of comparable and uniformly annotated multilingual corpora for 17 national parliaments were developed and released in 2021. For 2022 and 2023, the project has been extended to ParlaMint II, again with the CLARIN ERIC financial support, in order to enhance the existing corpora with new data and metadata; upgrade the XML schema; add corpora for 10 new parliaments; provide more application scenarios and carry out additional experiments. The paper reports on these planned steps, including some that have already been taken, and outlines future plans.
V ParlaMint I, projektu podporovaném CLARIN-ERIC v době pandemie, byla v roce 2021 vyvinuta a vydána sada srovnatelných a jednotně anotovaných vícejazyčných korpusů pro 17 národních parlamentů. Pro roky 2022 a 2023 byl projekt rozšířen na ParlaMint II, opět s finanční podporou CLARIN-ERIC, s cílem rozšířit stávající korpusy o nová data a metadata; aktualizovat schéma XML; přidat korpusy pro 10 nových parlamentů; poskytnout více scénářů aplikace a provést další experimenty. Dokument informuje o těchto plánovaných krocích, včetně některých, které již byly podniknuty, a nastiňuje budoucí plány.
[ "Maciej Ogrodniczuk", "Petya Osenova", "Tomaž Erjavec", "Darja Fišer", "Nikola Ljubešić", "Çağrı Çöltekin", "Matyáš Kopp", "Katja Meden" ]
https://www.semanticscholar.org/paper/1fadbbf3f2409455cbe7ec4989a2cc9d812c98df/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Probing the Role of Positional Information in Vision-Language Models
Zkoumání role poziční informace v modelech kombinujích jazyk a vidění
In most Vision-Language models (VL), the understanding of the image structure is enabled by injecting the position information (PI) about objects in the image. In our case study of LXMERT, a state-of-the-art VL model, we probe the use of the PI in the representation and study its effect on Visual Question Answering. We show that the model is not capable of leveraging the PI for the image-text matching task on a challenge set where only position differs. Yet, our experiments with probing confirm that the PI is indeed present in the representation. We introduce two strategies to tackle this: (i) Positional Information Pre-training and (ii) Contrastive Learning on PI using Cross-Modality Matching. Doing so, the model can correctly classify if images with detailed PI statements match. Additionally to the 2D information from bounding boxes, we introduce the object’s depth as new feature for a better object localization in the space. Even though we were able to improve the model properties as defined by our probes, it only has a negligible effect on the downstream performance. Our results thus highlight an important issue of multimodal modeling: the mere presence of information detectable by a probing classifier is not a guarantee that the information is available in a cross-modal setup.
Ve většině modelů kombinujících jazyk a vizuální informaci (Vision-Language, VL) je porozumění struktuře obrazu umožněno přidáním informací o poloze objektů v obraze. V naší případové studii se věmnujeme modelu VL modelu LXMERT a zkoumáme použití jakým způsobem poziční informaci používá a studujeme její vliv na úspěšnost v úloze odpovídání otázek o obrázcích. Ukazujeme, že model není schopen poziční informaci využít pro přiřazování textů k obrázkům, pokud se texty liší polohou objektů. A to i přesto, že další experimenty ale ukazují, že PI je v modelech skutečně přítomna. Představujeme dvě strategie, jak se s tímto problémem vypořádat: (i) předtrénování s přidanou informací o poloze a (ii) kontrastní učení s porovnáváním napříč modalitami. Tímto způsobem může model správně klasifikovat, zda se obrázky s podrobnými výroky PI shodují. Kromě 2D informací o objektech na obrázku, přidáváme hloubku objektu pro lepší lokalizaci v prostoru. Přestože se nám podařilo zlepšit vlastnosti modelu, na kvalitu odpovídání otázek to má jen zanedbatelný vliv. Naše výsledky tak poukazují na důležitý problém multimodálního modelování: pouhá přítomnost informace detekovatelné klasifikátorem není zárukou, že tato informace je k dispozici napříč modalitami.
[ "Philipp Rösch", "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/9fe29c834afbe1848d9df713ae6e0ca3bd053605/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
AI: When a Robot Writes a Play Workshop
Workshop AI: Když robot píše hru
A two-part interactive afternoon will feature a screening of the experimental play AI: When a Robot Writes a Play, written in full by a computer, telling a story of a robot left to the mercy of various representatives of human society after its master dies. The screening will be followed by a workshop with instructors David Kostak and Rudolf Rosa, offering participants the chance to collaborate with a robot on composing a script.
Dvoudílné interaktivní odpoledne bude obsahovat projekci experimentální hry AI: When a Robot Writes a Play, kterou v plném znění napsal počítač a která vypráví příběh robota, jenž byl po smrti svého pána vydán na milost různým představitelům lidské společnosti. Po projekci bude následovat workshop s instruktory Davidem Košťákem a Rudolfem Rosou, který účastníkům nabídne možnost spolupracovat s robotem na tvorbě scénáře.
[ "David Košťák", "Rudolf Rosa" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
AI: When a Robot Writes a Play Workshop
Workshop AI: Když robot píše hru
Can a robot write a play? What is the writing process like? What type of input can spark AI’s creativity to write a desired scene? How far has modern technology evolved in terms of robotic writing? The creators of the first ever computer-written play will present you the THEaiTRE project which explores the possibilities of artificial intelligence in the playwriting field.
Může robot napsat hru? Jaký je proces psaní? Jaký typ vstupu může podnítit kreativitu umělé inteligence, aby napsala požadovanou scénu? Jak daleko se moderní technologie vyvinuly, pokud jde o robotické psaní? Tvůrci vůbec první počítačově psané hry vám představí projekt THEaiTRE, který zkoumá možnosti umělé inteligence na poli psaní her.
[ "David Košťák", "Rudolf Rosa" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Learning Interpretable Latent Dialogue Actions With Less Supervision
Učení interpretovatelných latentních dialogových akcí za použití méně anotovaných dat
We present a novel architecture for explainable modeling of task-oriented dialogues with discrete latent variables to represent dialogue actions. Our model is based on variational recurrent neural networks (VRNN) and requires no explicit annotation of semantic information. Unlike previous works, our approach models the system and user turns separately and performs database query modeling, which makes the model applicable to task-oriented dialogues while producing easily interpretable action latent variables. We show that our model outperforms previous approaches with less supervision in terms of perplexity and BLEU on three datasets, and we propose a way to measure dialogue success without the need for expert annotation. Finally, we propose a novel way to explain semantics of the latent variables with respect to system actions.
Představujeme novou architekturu pro modelování task-oriented dialogů vysvětlitelným způsobem. Tato architektura používá latentní proměnné pro reprezentaci dialogových akcí. Náš model je založen na variačních rekurentních neuronových sítích a nevyžaduje explicitně anotované sémantické informace. Narozdíl od předešlých prací, naše metoda modeluje promluvy systému a uživatele odděleně a modeluje navíc i databázové dotazy, což činí model aplikovatelným na task-oriented systémy. Tato metoda zároveň vytváří jednoduše interpretovatelné latentní proměnné reprezentující akce. Ukázali jsme, že náš model dosahuje lepších výsledků než předešlé přístupy pracující s omezenou anotací dat, pokud se týká BLEU skóre a perplexity, a to na třech datasetech. Dále navrhujeme způsob měření úspěšnosti dialogů, který nevyžaduje anotaci experta. V neposlední řadě také představujeme inovativní způsob vysvětlení sémantiky obsažené v latentních proměnných.
[ "Vojtěch Hudeček", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/330ce86ce48648aed8da0dbff16cf8325de6297f/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
DIASER: A Unifying View On Task-oriented Dialogue Annotation
DIASER: Sjednocující pohled na anotaci dat pro task-oriented dialogy
Every model is only as strong as the data that it is trained on. In this paper, we present a new dataset, obtained by merging four publicly available annotated corpora for task-oriented dialogues in several domains (MultiWOZ 2.2, CamRest676, DSTC2 and Schema-Guided Dialogue Dataset). This way, we assess the feasibility of providing a unified ontology and annotation schema covering several domains with a relatively limited effort. We analyze the characteristics of the resulting dataset along three main dimensions: language, information content and performance. We focus on aspects likely to be pertinent for improving dialogue success, e.g. dialogue consistency. Furthermore, to assess the usability of this new corpus, we thoroughly evaluate dialogue generation performance under various conditions with the help of two prominent recent end-to-end dialogue models: MarCo and GPT-2. These models were selected as popular open implementations representative of the two main dimensions of dialogue modelling. While we did not observe a significant gain for dialogue state tracking performance, we show that using more training data from different sources can improve language modelling capabilities and positively impact dialogue flow (consistency). In addition, we provide the community with one of the largest open dataset for machine learning experiments.
Každý model je pouze tak dobrý, jak dobrá jsou data použitá k jeho trénování. V této práci představujeme nový dataset, získaný sloučením čtyř veřejně dostupných korpusů pro task-oriented dialogy v několika doménách (MultiWOZ 2.2, CamRest676, DSTC2 a Schema-Guided Dialogue Dataset). Touto cestou ověřujeme, že je možné vytvořit sjednocující ontologii a anotační schéma pokrývající několik domém s vyvinutím relativně malého úsilí. V práci analyzujeme charakteristiky získaného datasetu ve třech dimenzích: jazyk, obsah informací a vliv na kvalitu modelu. Zaměřujeme se na aspekty u kterých je velká šance že přispějí ke zlepšení úspěšnosti modellu. Dále detailně vyhodnocujeme kvalitu dialogů vygenerovaných z modelu natrénovaného na našich datech. Pro trénování využíváme modely MarCo a GPT-2. Ač jsme nepotvrdili významné zlepšení úspěšnosti sledování dialogového stavu, ukazujeme, že zapojení více zdrojů dat zlepšuje schopnost modelovat jazyk a přispívá k lepší konzistenci.
[ "Vojtěch Hudeček", "Léon-Paul Schaub", "Daniel Štancl", "Patrick Paroubek", "Ondřej Dušek" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
TEAM UFAL @ CreativeSumm 2022: BART and SamSum based few-shot approach for creative Summarization
TEAM UFAL @ CreativeSumm 2022: few-shot přístup založený na BART a SamSum pro kreativní sumarizaci
This system description paper details TEAM UFAL’s approach for the SummScreen, TVMegasite subtask of the CreativeSumm shared task. The subtask deals with creating summaries for dialogues from TV Soap operas. We utilized BART based pre-trained model fine-tuned on SamSum dialouge summarization dataset. Few examples from AutoMin dataset and the dataset provided by the organizers were also inserted into the data as a few-shot learning objective. The additional data was manually broken into chunks based on different boundaries in summary and the dialogue file. For inference we choose a similar strategy as the top-performing team at AutoMin 2021, where the data is split into chunks, either on [SCENE_CHANGE] or exceeding a pre-defined token length, to accommodate the maximum token possible in the pre-trained model for one example. The final training strategy was chosen based on how natural the responses looked instead of how well the model performed on an automated evaluation metrics such as ROGUE.
Tato práce s popisem systému podrobně popisuje přístup TEAM UFAL pro SummScreen, TVMegasite podúkol sdíleného úkolu CreativeSumm. Podúkol se zabývá vytvářením souhrnů pro dialogy z oper TV Soap. Využili jsme BART na bázi předcvičeného modelu vyladěného na SamSum dialouge sumarizační datové sadě. Několik příkladů z AutoMin datové sady a datové sady poskytnuté organizátory bylo také vloženo do dat jako cíl učení na několik záběrů. Dodatečná data byla ručně rozdělena na bloky na základě různých hranic v souhrnu a dialogovém souboru. Pro odvození volíme podobnou strategii jako špičkový tým na AutoMin 2021, kde jsou data rozdělena na bloky, buď na [SCENE_CHANGE] nebo přesahující předdefinovanou délku tokenu, aby se pro jeden příklad vešlo maximum tokenu možného v předcvičeném modelu. Finální tréninková strategie byla zvolena na základě toho, jak přirozené odpovědi vypadaly, namísto toho, jak dobře model fungoval na automatizovaných vyhodnocovacích metrikách, jako je ROGUE.
[ "Rishu Kumar", "Rudolf Rosa" ]
https://www.semanticscholar.org/paper/970f4d58eea9c2e6a981612ff503b5cfc6151e32/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Attitude in diplomatic speeches: a pilot study
Postoj v diplomatických projevech: pilotní studie
This paper presents a pilot study of attitude analysis in diplomatic discourse. The study was conducted by following the Appraisal Theory while annotating attitudinal expressions in the diplomatic speeches of the United Nations Security Council. It is supposed that the Appraisal scheme would unfold new valuable information about the distribution of attitudes in the diplomatic discourse due to the highly specific ranking of different types of opinion representations. The aim of the study is to analyze the application of the theory to real diplomatic data. To be fully comprehensible, these texts, though straightforward on the surface, require additional attention from the reader. The data consist of 20 speeches that were sampled from the UN Security Council Debates dataset and then manually annotated by applying the “attitude” part of the Appraisal theory scheme. The annotation process has shown problematic points regarding the influence of polarity of the actors on expressing attitudes, attitudes implicated in the proper names and phrases, identifying appraisal, as well as the annotator’s subjectivity issue. We have concluded that the Appraisal theory annotation scheme is generally well applicable to diplomatic speeches. As for the unclear cases, we have proposed some solutions which could be taken into modification.
Tento článek představuje pilotní studii analýzy postojů v diplomatickém diskurzu. Studie byla provedena podle Teorie hodnocení při anotaci postojových projevů v diplomatických projevech Rady bezpečnosti OSN. Předpokládá se, že schéma hodnocení může přinést nové cenné informace o rozložení postojů ve společnosti diplomatický diskurz díky vysoce specifickému řazení různých typů názorových reprezentací. Cílem studie je analyzovat aplikaci teorie na reálná diplomatická data. Aby byly tyto texty plně srozumitelné, vyžadují hlubší pozornost čtenáře, i když na první pohled vypadají jednoduše. Data se skládají z 20 projevů, které byly vybrány z datového souboru Rady bezpečnosti OSN a poté ručně anotovány podle sekce "postoj" v teorii hodnocení. Proces anotace ukázal problematické body, pokud jde o vliv polarity aktérů na vyjadřování postoje, dále u postojů spojených s vlastními jmény a frázemi, u identifikace hodnocení, stejně jako u subjektivita anotátorů. Došli jsme k závěru, že anotační schéma teorie hodnocení je obecně dobře použitelné pro diplomatické projevy. Co se týče nejasných případů, navrhli jsme některá řešení, která by mohla být upravena.
[ "Mariia Anisimova", "Šárka Zikánová" ]
https://www.semanticscholar.org/paper/437d1cdf4bc649a90b28ddef020c42fa371404c8/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
From COMET to COMES – Can Summary Evaluation Benefit from Translation Evaluation?
Od COMET k COMES – může mít hodnocení sumarizace prospěch z hodnocení překladu?
Comet is a recently proposed trainable neural-based evaluation metric developed to assess the quality of Machine Translation systems. In this paper, we explore the usage of Comet for evaluating Text Summarization systems -- despite being trained on multilingual MT outputs, it performs remarkably well in monolingual settings, when predicting summarization output quality. We introduce a variant of the model -- Comes -- trained on the annotated summarization outputs that uses MT data for pre-training. We examine its performance on several datasets with human judgments collected for different notions of summary quality, covering several domains and languages.
Comet je nedávno navržená trénovatelná neurální vyhodnocovací metrika vyvinutá pro hodnocení kvality systémů strojového překladu. V tomto článku prozkoumáme použití Cometu pro vyhodnocování systémů sumarizace textu – přestože jsme byli vyškoleni na vícejazyčné výstupy MT, funguje pozoruhodně dobře v jednojazyčném prostředí, když předpovídá kvalitu výstupu sumarizace. Představujeme variantu modelu -- Comes -- trénovanou na anotovaných sumárních výstupech, která využívá MT data pro předtrénování. Zkoumáme jeho výkon na několika souborech dat s lidskými úsudky shromážděnými pro různé pojmy souhrnné kvality, které pokrývají několik domén a jazyků.
[ "Mateusz Krubiński", "Pavel Pecina" ]
https://www.semanticscholar.org/paper/054e70254fb2ee1c1cd9cac91096ee1b24e1eef3/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Natural Language Processing In Healthcare, A Special Focus on Low Resource Languages
Zpracování přirozeného jazyka ve zdravotnicví, Cílený pohled na málo pokryté jazyky
Natural Language Processing In Healthcare: A Special Focus on Low Resource Languages covers the theoretical and practical aspects as well as ethical and social implications of NLP in healthcare. It showcases the latest research and developments contributing to the rising awareness and importance of maintaining linguistic diversity. The book goes on to present current advances and scenarios based on solutions in healthcare and low resource languages and identifies the major challenges and opportunities that will impact NLP in clinical practice and health studies.
Soubor kapitol shrnujících čerstvé poznatky z uplatňování metod zpracování přirozeného jazyka ve zdravotnictví zvláště s ohledem na jazyky s nedostatečnými jazykovými daty.
[ "Satya Ranjan Dash", "Shantipriya Parida", "Esau Villatoro Tello", "Biswaranjan Acharya", "Ondřej Bojar" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Defending Compositionality in Emergent Languages
Obhajoba kompozicionality v jazykových hrách
Compositionality has traditionally been understood as a major factor in productivity of language and, more broadly, human cognition. Yet, recently, some research started to question its status, showing that artificial neural networks are good at generalization even without noticeable compositional behavior. We argue that some of these conclusions are too strong and/or incomplete. In the context of a two-agent communication game, we show that compositionality indeed seems essential for successful generalization when the evaluation is done on a proper dataset.
V kontextu jazykových her ukazujeme, že kompozicionální zprávy jsou nutné k úspěšnému zobecňování na datech pocházejících z pozměněné distribuce.
[ "Michal Auersperger", "Pavel Pecina" ]
https://www.semanticscholar.org/paper/60584b10f794ed74fac7990b8fcbb7f4ff93d73e/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Life with Artificial Intelligence
Život s umělou inteligencí
AI, artificial intelligence, smart devices, machine learning... We hear these words around us more and more. Artificial intelligence is gradually infiltrating many fields of human activity, from the development of new drugs to the writing of plays to religion. But is it all the same artificial intelligence? What does it do? How is it used? And what exactly is AI?
AI, umělá inteligence, chytrá zařízení, strojové učení... Tato slova kolem sebe slýcháme stále častěji. Umělá inteligence postupně proniká do mnoha oborů lidské činnosti, od vývoje nových léků přes psaní divadelních her až po náboženství. Je to ale všechno stejná umělá inteligence? Co umí? Jak se používá? A co to vlastně je AI?
[ "Luca Baroni", "Tereza Hannemann", "Helena Lazarová", "Jindřich Libovický", "Petr Kácovský", "Petr Kajzar", "Nikol Kopáňková", "Michaela Mazná", "Rudolf Rosa", "František Štěch", "Alisa Zakhtarenko", "Tomáš Musil" ]
https://www.semanticscholar.org/paper/c583c7aabacb19e9ac14024d812dc4be819b1044/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Automated Evaluation Metric for Terminology Consistency in MT
Automatická metrika pro terminologickou konzistenci překladu
The most widely used metrics for machine translation tackle sentence-level evaluation. However, at least for professional domains such as legal texts, it is crucial to measure the consistency of the translation of the terms throughout the whole text. This paper introduces an automated metric for the term consistency evaluation in machine translation (MT). To demonstrate the metric's performance, we used the Czech-to-English translated texts from the ELITR 2021 agreement corpus and the outputs of the MT systems that took part in WMT21 News Task. We show different modes of our evaluation algorithm and try to interpret the differences in the ranking of the translation systems based on sentence-level metrics and our approach. We also demonstrate that the proposed metric scores significantly differ from the widespread automated metric scores, and correlate with the human assessment.
Článek představuje novou metodu vyhodnocování strojového překladu, která se věnuje terminologické konzistenci.
[ "Kirill Semenov", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/f490855b0e8751ef9320e528680c97e0682c1920/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
CUNI-KIT System for Simultaneous Speech Translation Task at IWSLT 2022
CINI-KIT Syst0m pre Simultaneous Speech Translation Task na IWSLT 2022
In this paper, we describe our submission to the Simultaneous Speech Translation at IWSLT 2022. We explore strategies to utilize an offline model in a simultaneous setting without the need to modify the riginal model. In our experiments, we show that our onlinization algorithm is almost on par with the offline setting while being 3× faster than offline in terms of latency on the test set. We make our system publicly available.
V tomto článku popisujeme naše předložení k Simultaneous Speech Translation na IWSLT 2022. Zkoumáme strategie využití offline modelu v simultánním prostředí bez nutnosti upravovat původní model. V našich experimentech ukazujeme, že náš online algoritmus je téměř na stejné úrovni jako offline nastavení, přičemž je 3× rychlejší než offline, pokud jde o latenci na testovací sadě. Náš systém zpřístupňujeme veřejnosti.
[ "Peter Polák", "Ngoc-Quan Ngoc", "Tuan-Nam Nguyen", "Danni Liu", "Carlos Mullov", "Jan Niehues", "Ondřej Bojar", "Alex Waibel" ]
https://www.semanticscholar.org/paper/f0d2a71ed89b1be9a4a3990c36d6ee372836b173/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
ALIGNMEET: A Comprehensive Tool for Meeting Annotation, Alignment, and Evaluation
ALIGNMEET: Komplexní nástroj pro anotaci, zarovnání a hodnocení schůzek
Meeting summarization is primarily focused on topi cal coverage rather than on fluency or coherence. It is a challenging and tedious task, even when meeting summaries are created manually. The resulting sum maries vary in the goals, style, and they are inevitably very subjective due to the human in the loop. Also, the awareness of the context of the meeting is essential to create adequate and informative summaries.
Sumarizace schůzek se primárně zaměřuje spíše na aktuální téma než na plynulost nebo koherenci. Je to náročný a zdlouhavý úkol, i když se shrnutí schůzek vytváří ručně. Výsledná shrnutí se liší v cílech, stylu a jsou nevyhnutelně velmi subjektivní kvůli člověku, který je ve smyčce. Pro vytvoření adekvátních a informativních shrnutí je rovněž nezbytné uvědomění si kontextu schůzky.
[ "Peter Polák", "Muskaan Singh", "Anna Nedoluzhko", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/9877877b070ec966100a60fe630033ae3c72c09c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Identification of plausible and incoherent instructions
Identifikace věrohodných a nesouvislých pokynů
This paper addresses the problem of plausibility in instructional texts. This may occur from various interpretations of ambiguous or vague contexts when there are phrases not explicitly defined. The 7th task from Semeval 2022 competition was about a corpus with revisions of Wikihow underspecified instructional texts. The revisions were turned into cloze test sentences containing a context with a placeholder and 5 possible phrases as a possible choice that can illustrate various interpretations. Each one also has a plausibility grade and a label which was the target of the competition. For participating, we initiated a ”first round” of experiments for finetuning Transformer based models: given a sentence with the context and the filler, we have a model to predict the mentioned labels, and another model deals with the plausibility score. The performance of our best classifier ranked us in 18th place out of 19 candidates. After the competition ended, we carried on with implementations, trying to overcome the last performance in a ”second round”. We implemented certain augmentations, explained in Appendices, a new loss: CORAL, used for exploiting the fact that our labels can be ordered and eventually trained into a multitask model. These improvements would have placed us in 11th place in classification and in 7th place in the regression task. Moreover, we implemented a minimalist web application for evaluating the plausibility score in cloze tests. This may be further extended in an online platform with more tests dedicated to language learners for evaluating their reading comprehension.
Tento článek se zabývá problémem věrohodnosti v učebních textech. K tomu může dojít z různých výklady nejednoznačných nebo vágních kontextů, pokud existují fráze, které nejsou explicitně definovány. 7. úkol ze soutěže Semeval 2022 byl o korpusu s revizemi Wikihow nedostatečně specifikované učební texty. Revize byly převedeny do uzavřených testovacích vět obsahujících a kontext se zástupným symbolem a 5 možnými frázemi jako možný výběr, který může ilustrovat různé výklady. Každý z nich má také stupeň věrohodnosti a označení, které bylo cílem soutěže. Kvůli účasti jsme zahájili „první kolo“ experimentů pro doladění Transformeru založené modely: dostaneme-li větu s kontextem a výplní, máme model k předpovědi zmíněných štítků a další model se zabývá skóre věrohodnosti. Výkon našich nejlepších klasifikátor nás zařadil na 18. místo z 19 kandidátů. Po skončení soutěže jsme pokračovali v implementacích a snažili se překonat poslední výkon ve „druhém kole“. Implementovali jsme určitá rozšíření, vysvětlená v dodatcích, nová ztráta: CORAL, sloužící k využití toho, že naše etikety lze objednat a popř trénovaný na multitaskový model. Tato vylepšení by nás umístila na 11. místo klasifikaci a na 7. místě v regresní úloze. Navíc jsme implementovali minimalistickou webovou aplikaci pro hodnocení skóre věrohodnosti v uzavřených testech. To může být dále rozšířeno v online platformě s dalšími testy věnovanými studentům jazyků k hodnocení jejich porozumění čtenému textu.
[ "Andrei Alexandru Manea" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Astute Approach to Handling Memory Layouts of Regular Data Structures
Chytrý přístup k práci s rozložením paměti pravidelných datových struktur
Programmers of high-performance applications face many challenging aspects of contemporary hardware architectures. One of the critical aspects is the efficiency of memory operations which is affected not only by the hardware parameters such as memory throughput or cache latency but also by the data-access patterns, which may influence the utilization of the hardware, such as re-usability of the cached data or coalesced data transactions. Therefore, a performance of an algorithm can be highly impacted by the layout of its data structures or the order of data processing which may translate into a more or less optimal sequence of memory operations. These effects are even more pronounced on highly-parallel platforms, such as GPUs, which often employ specific execution models (lock-step) or memory models (shared memory). In this work, we propose a modern, astute approach for managing and implementing memory layouts with first-class structures that is very efficient and straightforward. This approach was implemented in Noarr, a GPU-ready portable C++ library that utilizes generic programming, functional design, and compile-time computations to allow the programmer to specify and compose data structure layouts declaratively while minimizing the indexing and coding overhead. We describe the main principles on code examples and present a performance evaluation that verifies our claims regarding its efficiency.
Programátoři vysoce výkonných aplikací čelí mnoha náročným aspektům soudobých hardwarových architektur. Jedním z kritických aspektů je efektivita paměťových operací, která je ovlivněna nejen hardwarovými parametry, jako je propustnost paměti nebo latence cache, ale také vzory přístupu k datům, které mohou ovlivnit využití hardwaru, jako je opětovná použitelnost dat v cache nebo koalescenované datové transakce. Proto může být výkon algoritmu silně ovlivněn rozvržením jeho datových struktur nebo pořadím zpracování dat, které se může promítnout do více či méně optimální posloupnosti paměťových operací. Tyto efekty jsou ještě výraznější na vysoce paralelních platformách, jako jsou GPU, které často používají specifické prováděcí modely (lock-step) nebo paměťové modely (sdílená paměť). V této práci navrhujeme moderní, bystrý přístup pro správu a realizaci paměťových rozvržení s prvotřídními strukturami, který je velmi efektivní a přímočarý. Tento přístup byl implementován v Noarru, přenosné C++ knihovně připravené pro GPU, která využívá generické programování, funkční design a kompilační výpočty, aby programátor mohl deklarativně specifikovat a skládat rozvržení datových struktur a zároveň minimalizovat režii indexování a kódování. Popisujeme hlavní principy na příkladech kódu a předkládáme hodnocení výkonu, které ověřuje naše tvrzení ohledně jeho efektivity.
[ "Adam Šmelko", "Martin Kruliš", "Miroslav Kratochvíl", "Jiří Klepl", "Jiří Mayer", "Petr Šimůnek" ]
https://www.semanticscholar.org/paper/0737bb3be7d378368636ece4c6919cd6659257d8/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Self-paced reading experiments on explicit and implicit contrastive and temporal discourse relations in Czech
Self-paced reading experiments on explicit and implicit contrastive and temporal discourse relations in Czech
Supplementary materials for the paper “Processing of explicit and implicit contrastive and temporal discourse relations in Czech” (submitted to Discourse Processes). Experimental stimuli; data analysis code and plot; data for the concession, confrontation, synchrony, and asynchrony relations.
Doplňkové materiály ke článku “Processing of explicit and implicit contrastive and temporal discourse relations in Czech” (zasláno do Discourse Processes). Experimentální stimuly; kód datové analýzy a výsledky; data pro vztah přípustky, konfrontace, současnosti a nesoučasnosti.
[ "Šárka Zikánová", "Filip Smolík" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
fr
2022
Global text structure: a corpus study
Globální struktura textu: korpusová studie
The presented analysis is a preparatory step for the research on the higher construction of the text (global coherence) in the Prague Dependency Treebank. We analyzed the phenomena related to the higher structuring of the text, the marking of which was done as a by-product of the annotation of implicit discourse relations. These phenomena form four larger groups, which we describe in more detail: phenomena of the internal structuring of one narrative line, changes of perspective in the text due to the change of speakers, phenomena of the external structuring of the text and phenomena related to genre rules. We also tried to include these phenomena in the overview of existing or planned aspects of textual analysis in the Prague Dependency Corpus as a proposal of an enrichment of the analysis of textual coherence.
Předložená analýza je přípravným krokem pro rozbor vyšší výstavby textu (globální koherence) v Pražském závislostním korpusu. Analyzovali jsme jevy související s vyšším strukturováním textu, jejichž značení bylo provedeno jako vedlejší produkt anotace implicitních diskurzních vztahů. Tyto jevy tvoří čtyři větší skupiny, které popisujeme blíže: jevy vnitřní strukturace jedné vyprávěcí linie, změny perspektivy v textu dané střídáním mluvčích, jevy vnější strukturace textu a jevy související se žánrovými pravidly. Pokusili jsme se také tyto jevy zahrnout do přehledu existujících či plánovaných aspektů textové analýzy v Pražském závislostním korpusu jako návrh na obohacení analýzy textové koherence.
[ "Šárka Zikánová", "Jiří Mírovský", "Lucie Poláková" ]
https://www.semanticscholar.org/paper/1569d18452a7a2f280c17a82adbdf466cbe0e4e8/
Structuration globale du texte: une étude de corpus
La présente étude constitue une étape préparatoire à l’analyse de la structuration globale du texte (cohérence globale) dans le Corpus pragois de dépendances. Nous avons analysé les phénomènes relatifs à la structuration au niveau global, leur marquage ayant été effectué en tant que produit secondaire de l’annotation des relations discursives implicites. Ces phénomènes peuvent être rassemblés en quatre grands groupes que nous décrivons plus en détail : des phénomènes de structuration interne d’une ligne narrative, des changements de perspectives dans le texte relevant des tours de parole entre les énonciateurs, des phénomènes de structuration externe du texte et des phénomènes liés aux règles de composition inhérentes au genre de texte donné. Nous avons tenté également d’intégrer ces phénomènes dans un tableau reprenant les aspects existants ou en préparation de l’analyse textuelle dans le Corpus pragois de dépendances en guise de proposition pour l’enrichissement de l’analyse de la cohérence textuelle.
null
null
null
null
null
null
null
null
null
null
en
2022
Morphosyntactic features in distributional space
Morfosyntaktické vlastnosti v distribučním prostoru
The work deals with the paradigmatic system of Czech inflexion from the perspective of distributional semantics. We use extensive morphological and corpus resources available for Czech to obtain models of the Czech distributional vector space and examine the behaviour of selected morphosyntactic features of Czech nouns and adjectives.
Práce se zabývá paradigmatickým systémem české flexe z perspektivy distribuční sémantiky. Využíváme rozsáhlé morfologické zdroje a korpusy k získání modelů distribuční sémantiky češtiny a zkoumáme chování vybraných morfosémantických vlastností českých podstatných a přídavných jmen.
[ "Olivier Bonami", "Marine Wauquier", "Lukáš Kyjánek" ]
https://www.semanticscholar.org/paper/8e32e1f02b7060ce419a964b800d0927a2e1d69c/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
On diglossia in Czech monolingual dictionaries
K diglosii v českých výkladových slovnících
On the basis of an extensive analysis of frequency peaks in spoken and written corpora, the author considers the possible use of these data in a monolingual dictionary of Czech, mainly from two perspectives: first, as a source of support for dictionary authors to specify traditional information regarding style, and second, as a source of user information about the central lexicon of Czech and as a basis for the so-called learner’s dictionary.
Autorka na základě rozsáhlé analýzy frekvenčních špiček mluveného a psaného korpusu uvažuje nad možným využitím těchto dat ve výkladovém slovníku češtiny, a to zejména ze dvou pohledů: jednak jako opory pro slovníkáře při specifikaci tradiční stylové informace a jednak jako uživatelské informace o centrálním lexiku češtiny a základu pro tzv. learner’s dictionary
[ "Barbora Štěpánková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
ÚFAL CorPipe at CRAC 2022: Effectivity of Multilingual Models for Coreference Resolution
ÚFAL CorPipe na CRAC 2022: Efektivita vícejazyčných modelů při rozpoznávání koreference
We describe the winning submission to the CRAC 2022 Shared Task on Multilingual Coreference Resolution. Our system first solves mention detection and then coreference linking on the retrieved spans with an antecedent-maximization approach, and both tasks are fine-tuned jointly with shared Transformer weights. We report results of fine-tuning a wide range of pretrained models. The center of this contribution are fine-tuned multilingual models. We found one large multilingual model with sufficiently large encoder to increase performance on all datasets across the board, with the benefit not limited only to the underrepresented languages or groups of typologically relative languages. The source code is available at https://github.com/ufal/crac2022-corpipe.
Představujeme vítězný systém z CRAC 2022 Shared Task on Multilingual Coreference Resolution. Náš systém nejprve rozpoznává koreferenční zmínky a poté předpovídá koreferenční odkazy na získaných úsecích. Oba úkoly jsou trénovány najednou použitím společného předtrénovaného modelu architektury Transformer, kterých vyhodnocujeme širokou škálu. Náš hlavní příspěvek jsou vícejazyčné modely. Zjistili jsme, že jeden velký vícejazyčný model s dostatečně velkým enkodérem dosahuje nejlepších výsledků na všech datasetech, nejen na nedostatečně zastoupených jazycích či na skupinách typologicky podobných jazyků. Zdrojový kód je dostupný na https://github.com/ufal/crac2022-corpipe.
[ "Milan Straka", "Jana Straková" ]
https://www.semanticscholar.org/paper/99cdadec9757fd5d3fd5b9186495f8d6f1c0797e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
A data-based approach to competition in word-formation
Datově orientovaný přístup ke kompetici ve slovotvorbě
The presentation summarises the work of our START grant team on the topic of competition in word formation. It presents language resources as well as the methodology used in the mentioned research area.
Prezentace shrnuje dosavadní práci našeho grantového týmu START na tématu kompetice ve slovotvorbě. Prezentují se jak jazykové zdroje, tak metodologie používané v rámci dané výzkumné oblasti.
[ "Lukáš Kyjánek" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Web-based Annotation Interface for Derivational Morphology
Webové anotační prostředí pro derivační morfologii
The paper presents a visual interface for manual annotation of language resources for derivational morphology. The interface is webbased and created using relatively simple programming techniques, and yet it rapidly facilitates and speeds up the annotation process, especially in languages with rich derivational morphology. As such, it can reduce the cost of the process. After introducing manual annotation tasks in derivational morphology, the paper describes the new visual interface and a case study that compares the current annotation method to the annotation using the interface. In addition, it also demonstrates the opportunity to use the interface for manual annotation of syntactic trees. The source codes are freely available under the MIT License on GitHub.
Práce představuje vizuální rozhraní pro manuální anotaci jazykových zdrojů pro derivační morfologii. Rozhraní je webové a je vytvořeno pomocí relativně jednoduchých programovacích technik, a přesto zásadně usnadňuje a urychluje proces anotace, zejména v jazycích s bohatou derivační morfologií. Jako takový může nástroj snížit náklady na proces ručních anotací. Po představení manuálních anotačních úloh v derivační morfologii práce popisuje nové vizuální rozhraní a případovou studii, která porovnává stávající anotační metodu s anotací pomocí vytvořeného rozhraní. Kromě toho příspěvek také demonstruje možnost využít rozhraní pro manuální anotaci syntaktických stromů. Zdrojové kódy jsou volně dostupné pod licencí MIT na GitHubu.
[ "Lukáš Kyjánek" ]
https://www.semanticscholar.org/paper/1e96c3828991f0d1e33e8621fc30d38d7511fe4c/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
A Distributional Approach to Inflection vs. Derivation in Czech
Distribuční přístup k flexi vs. derivaci v češtině
The work deals with the borderline between inflexion and derivation in Czech, especially from the perspective of distributional semantics. We use extensive morphological and corpus resources available for Czech to obtain models of the Czech distributional vector space and examine a collection of 24 types of morphological contrasts exemplifying canonical inflexion, canonical derivation, and different types of intermediate cases.
Práce se zabývá hranicí mezi flektivní a derivační morfologií v češtině, zvláště pak z perspektivy distribuční sémantiky. Využíváme rozsáhlé morfologické zdroje a korpusy k získání modelů distribuční sémantiky češtiny a zkoumáme kolekci 24 typů morfologických kontrastů reprezentujících jak kanonickou flexi a kanonickou derivaci, tak různé typy mezních případů.
[ "Lukáš Kyjánek", "Olivier Bonami" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Package of word embeddings of Czech from a large corpus
Package of word embeddings of Czech from a large corpus
This package comprises eight models of Czech word embeddings trained by applying word2vec (Mikolov et al. 2013) to the currently most extensive corpus of Czech, namely SYN v9 (Křen et al. 2022). The minimum frequency threshold for including a word in the model was 10 occurrences in the corpus. The original lemmatisation and tagging included in the corpus were used for disambiguation. In the case of word embeddings of word forms, units comprise word forms and their tag from a positional tagset (cf. https://wiki.korpus.cz/doku.php/en:pojmy:tag) separated by '>'. The published package provides models trained on both tokens and lemmas. In addition, the models combine training algorithms (CBOW and Skipgram) and dimensions of the resulting vectors (100 or 500), while the training window and negative sampling remained the same during the training. The package also includes files with frequencies of word forms (vocab-frequencies.forms) and lemmas (vocab-frequencies.lemmas).
Tento balíček obsahuje osm modelů českých slovních vektorů vytvořených nástrojem word2vec (Mikolov a kol. 2013) na aktuálně nejrozsáhlejším korpusu češtiny SYN v9 (Křen a kol. 2022). Minimální frekvenční práh pro zahrnutí slova do modelu byl 10 výskytů v korpusu. Pro desambiguaci byla použita původní lemmatizace a tagování obsažené v korpusu. V případě vektorů slovních forem se rozumí slovní formy a jejich tag z pozičního tagsetu (srov. https://wiki.korpus.cz/doku.php/en:pojmy:tag) oddělené '>'. Publikovaný balíček poskytuje modely natrénované jak na slovní formy, tak pro lemmata. Kromě toho modely kombinují tréninkové algoritmy (CBOW a Skipgram) a rozměry výsledných vektorů (100 nebo 500), zatímco tréninkové okno a negativní vzorkování zůstalo během tréninku stejné. Balíček také obsahuje soubory s frekvencemi slovních forem (vocab-frequencies.forms) a lemmat (vocab-frequencies.lemmas).
[ "Lukáš Kyjánek", "Olivier Bonami" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Constructing a Lexical Resource of Russian Derivational Morphology
Příprava lexikálních dat pro derivační morfologii ruštiny
Words of any language are to some extent related thought the ways they are formed. For instance, the verb exempl-ify and the noun example-s are both based on the word example, but the verb is derived from it, while the noun is inflected. In Natural Language Processing of Russian, the inflection is satisfactorily processed; however, there are only a few machine-tractable resources that capture derivations even though Russian has both of these morphological processes very rich. Therefore, we devote this paper to improving one of the methods of constructing such resources and to the application of the method to a Russian lexicon, which results in the creation of the largest lexical resource of Russian derivational relations. The resulting database dubbed DeriNet.RU includes more than 300 thousand lexemes connected with more than 164 thousand binary derivational relations. To create such data, we combined the existing machine-learning methods that we improved to manage this goal. The whole approach is evaluated on our newly created data set of manual, parallel annotation. The resulting DeriNet.RU is freely available under an open license agreement.
Slova jsou v jazycích provázána slovotvornými vztahy, např. sloveso examplify a substantivum examples obě souvisí s example, přičemž uvedené sloveso z něj vzniklo odvozením a substantivní tvar inflexí. Mezi jazykovými zdroji pro ruštinu je inflexe pokrytá dostatečně, nicméně derivace je pokryta datovými zdroji daleko omezeněji. Tento článek je věnován vylepšení metody konstrukce derivačních sítí a aplikaci tohoto postupu na ruštinu, vedoucí k vytvoření dosud největšího datového zdroje ruských derivačních relací. Výsledná databáze DeriNet.RU obsahuje víc než 300 tisíc lemmat spojených s více než 164 tisíci slovotvornými relacemi. Pro vytvoření takových dat jsme použili metody strojového učení. Databáze je zveřejněna pod otevřenou licencí.
[ "Lukáš Kyjánek", "Olga Lyashevskaya", "Anna Nedoluzhko", "Daniil Vodolazsky", "Zdeněk Žabokrtský" ]
https://www.semanticscholar.org/paper/8852ac08da707c37c6cb7d544d5328c573a9f03b/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Multimodal Machines from a perspective of humans
Multimodální stroje od a perspektiva lidí
Deep Neural Networks have rapidly become the most dominant approach to solve many complicated learning problems in recent times. Although initially inspired by biological neural networks, the current deep learning systems are much more motivated by practical engineering needs and performance requirements. And yet, some of these networks exhibit a lot of similarities with human brains. This thesis proposal focuses on highlighting the differences in the learning mechanisms of humans and deep learning systems and explores yet how recent work has established similarities between representations learnt by deep learning systems and cognitive data collected from the human brain. Furthermore, we look into the benefits of using brain-inspired techniques and experiments to help build better systems for natural language processing applications and the results of the experiments done so far. Lastly, we outline the proposal to direct our future work towards the completion of the thesis.
Hluboké neuronové sítě se v poslední době rychle staly nejdominantnějším přístupem k řešení mnoha komplikovaných problémů s učením. Přestože byly původně inspirovány biologickými neuronovými sítěmi, současné systémy hlubokého učení jsou mnohem více motivovány praktickými inženýrskými potřebami a požadavky na výkon. A přesto některé z těchto sítí vykazují mnoho podobností s lidskými mozky. Tento návrh diplomové práce se zaměřuje na zdůraznění rozdílů v mechanismech učení lidí a v systémech hlubokého učení a zkoumá, jak nedávná práce prokázala podobnosti mezi reprezentacemi získanými pomocí systémů hlubokého učení a kognitivními daty shromážděnými z lidského mozku. Dále se podíváme na výhody používání technik a experimentů inspirovaných mozkem, které pomáhají budovat lepší systémy pro aplikace zpracování přirozeného jazyka, a na výsledky dosud provedených experimentů. Nakonec nastíníme návrh směřovat naši budoucí práci k dokončení diplomové práce.
[ "Sunit Bhattacharya" ]
https://www.semanticscholar.org/paper/0a9364ca06771d2b85da147a453bca0d02f8e248/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
EMMT Release (version 1.0)
EMMT (verze 1.0)
We present Eyetracked Multi-Modal Translation (EMMT), a dataset containing monocular eye movement recordings, audio data and 4-electrode wearable electroencephalogram (EEG) data of 43 participants while engaged in sight translation task supported by an image.
Představujeme soubor dat Eyetracked Multi-Modal Translation (EMMT), který obsahuje záznamy monokulárních očních pohybů, zvuková data a data 4elektrodového nositelného elektroencefalogramu (EEG) 43 účastníků, kteří se věnovali překladu z angličtiny do češtiny, a to na základě psaného textu a doprovodných obrázků.
[ "Sunit Bhattacharya", "Věra Kloudová", "Vilém Zouhar", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/e59fa640a1d4c6b83750814ad45ac350169ebaf2/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
What do the eyes really see? An eye-tracking account of language processing
Co oči skutečně vidí? Výzkum zpracování jazyka pomocí metody eye tracking
This experimental study aims to investigate the translation process from English to Czech in a multimodal scenario by using an eye tracker. We investigate specific aspects of translating ambiguous and unambiguous sentences, and simultaneously, we focus on the possible impact of visual information on the translation process. Thus, we show how mechanisms of visual search, as well as the presence and attention mechanisms involved in such translation processes, can be explored based on various eye-movement data, i.e., cognitive mechanisms involved in reading original sentences and producing the corresponding translation are studied using a plethora of eye-tracking-specific metrics. Among other things, the paper demonstrates how the Stroop effect is visible in the experimental setup.
Cílem této experimentální studie je prozkoumat proces překladu z angličtiny do češtiny v multimodálním scénáři s využitím eye trackeru. Zkoumáme specifické aspekty překladu nejednoznačných a jednoznačných vět a současně se zaměřujeme na možný vliv vizuálních informací na proces překladu. Ukazujeme tak, jak lze na základě různých údajů o pohybu očí zkoumat mechanismy vizuálního vyhledávání, jakož i mechanismy přítomnosti a pozornosti zapojené do těchto překladatelských procesů, tj. kognitivní mechanismy zapojené do čtení originálních vět a vytváření odpovídajícího překladu studujeme pomocí několika metrik specifických pro sledování očí. Článek mimo jiné ukazuje, jak se v experimentálním uspořádání projevuje Stroopův efekt.
[ "Sunit Bhattacharya", "Věra Kloudová", "Vilém Zouhar", "Ondřej Bojar" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Team ÚFAL at CMCL 2022 Shared Task: Figuring out the correct recipe for predicting Eye-Tracking features using Pretrained Language Model
Tým ÚFAL na CMCL 2022 Sdílený úkol: Vymyslet správný recept pro předvídání funkcí sledování očí pomocí předem připraveného jazykového modelu
Eye-Tracking data is a very useful source of information to study cognition and especially language comprehension in humans. In this paper, we describe our systems for the CMCL 2022 shared task on predicting eye-tracking information. We describe our experiments with pretrained models like BERT and XLM and the different ways in which we used those representations to predict four eye-tracking features. Along with analysing the effect of using two different kinds of pretrained multilingual language models and different ways of pooling the tokenlevel representations, we also explore how contextual information affects the performance of the systems. Finally, we also explore if factors like augmenting linguistic information affect the predictions. Our submissions achieved an average MAE of 5.72 and ranked 5th in the shared task. The average MAE showed further reduction to 5.25 in post task evaluation.
Data sledování očí jsou velmi užitečným zdrojem informací pro studium kognice a zejména porozumění jazyku u lidí. V tomto článku popisujeme naše systémy pro sdílenou úlohu CMCL 2022 o předpovídání informací o sledování očí. Popisujeme naše experimenty s předem připravenými modely, jako jsou BERT a XLM, a různé způsoby, jak jsme tyto reprezentace použili k predikci čtyř funkcí sledování očí. Spolu s analýzou účinku použití dvou různých druhů předtrénovaných vícejazyčných jazykových modelů a různých způsobů sdružování reprezentací na úrovni tokenů také zkoumáme, jak kontextové informace ovlivňují výkon systémů. Nakonec také zkoumáme, zda faktory, jako je rozšíření jazykových informací, ovlivňují předpovědi. Naše příspěvky dosáhly průměrného MAE 5,72 a umístily se na 5. místě ve sdíleném úkolu. Průměrný MAE ukázal další snížení na 5,25 při hodnocení po úkolu.
[ "Sunit Bhattacharya", "Rishu Kumar", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/f93efbc718c850f3b1d95c287de6c1a51eb9c1a7/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Sentence Ambiguity, Grammaticality and Complexity Probes
Sondy nejednoznačnosti, gramatiky a složitosti vět
It is unclear whether, how and where large pre-trained language models capture subtle linguistic traits like ambiguity, grammaticality and sentence complexity. We present results of automatic classification of these traits and compare their viability and patterns across representation types. We demonstrate that template-based datasets with surface-level artifacts should not be used for probing, careful comparisons with baselines should be done and that t-SNE plots should not be used to determine the presence of a feature among dense vectors representations. We also demonstrate how features might be highly localized in the layers for these models and get lost in the upper layers.
Není jasné, zda, jak a kde velké předem trénované jazykové modely zachycují jemné lingvistické rysy, jako je nejednoznačnost, gramatika a složitost vět. Prezentujeme výsledky automatické klasifikace těchto znaků a porovnáváme jejich životaschopnost a vzorce napříč typy reprezentace. Ukazujeme, že datové sady založené na šablonách s artefakty na úrovni povrchu by neměly být používány pro sondování, měla by být provedena pečlivá srovnání se základními hodnotami a že grafy t-SNE by se neměly používat k určení přítomnosti rysu mezi reprezentacemi hustých vektorů. Také ukazujeme, jak mohou být prvky vysoce lokalizovány ve vrstvách těchto modelů a ztratit se v horních vrstvách.
[ "Sunit Bhattacharya", "Vilém Zouhar", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/a35520a1ac0fd6ac8ad1f406bfafb796830acf81/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Why AI language models think bananas are green
Proč si AI jazykové modely myslí, že jsou banány zelené
In the beginning was the word, from which the universe, life, and people were created. At least that's how the Bible describes it. The words also gave rise to the LaMDA AI system, which can supposedly become self-aware and feel emotions such as love, sadness, or fear. At least that's how Google developer Blake Lemoine described it. But experts don't believe him. Why? Our guest is Jindřich Libovický, who works on automatic language processing at the Institute of Formal and Applied Linguistics at the Faculty of Mathematics and Physics of Charles University.
Na začátku bylo slovo, z toho pak vznikl vesmír, život i lidé. Tak to alespoň popisuje bible. Ze slov vznikl také AI systém LaMDA, který si údajně může uvědomovat sám sebe a cítí emoce jako je láska, smutek nebo strach. Tak to alespoň popsal vývojář Googlu Blake Lemoine. Experti mu ale nevěří. Proč? Naším hostem je Jindřich Libovický, který se automatickému zpracování jazyka věnuje v Ústavu formální a aplikované lingvistiky Matematicko-fyzikální fakulty Univerzity Karlovy.
[ "David Slíšek", "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/3a4ec99fb63461bed4c98780d693c1e1c4ca83d0/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Interpreting and Controlling Linguistic Features in Neural Networks’ Representations
Interpretace a řízení lingvistických funkcí v reprezentacích neuronových sítí
Neural networks have achieved state-of-the-art results in a variety of tasks in natural language processing. Nevertheless, neural models are black boxes; we do not understand the mechanisms behind their successes. I will present the tools and methodologies used to interpret black box models. The talk will primarily focus on the representations of Transformer-based language models and our novel method — orthogonal probe, which offers good insight into the network's hidden states. The results show that specific linguistic signals are encoded distinctly in the Transformer. Therefore, we can effectively separate their representations. Additionally, we demonstrate that our findings generalize to multiple diverse languages. Identifying specific information encoded in the network allows removing unwanted biases from the representation. Such an intervention increases system reliability for high-stakes applications.
Neuronové sítě dosáhly nejmodernějších výsledků v řadě úloh při zpracování přirozeného jazyka. Nicméně neurální modely jsou černé skříňky; nerozumíme mechanismům jejich úspěchů. Představím nástroje a metodiky používané k interpretaci modelů černé skříňky. Přednáška se zaměří především na reprezentace jazykových modelů založených na Transformeru a naši novou metodu – ortogonální sondu, která nabízí dobrý náhled na skryté stavy sítě. Výsledky ukazují, že specifické lingvistické signály jsou v transformátoru zakódovány zřetelně. Proto můžeme efektivně oddělit jejich reprezentace. Navíc prokazujeme, že naše zjištění zobecňují na více různých jazyků. Identifikace specifických informací zakódovaných v síti umožňuje odstranit nežádoucí zkreslení z reprezentace. Takový zásah zvyšuje spolehlivost systému pro aplikace s vysokými sázkami.
[ "Tomasz Limisiewicz" ]
https://www.semanticscholar.org/paper/1a0b6a6b4283314d07238bd3424e052ab96b6c01/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Don’t Forget About Pronouns: Removing Gender Bias in Language Models Without Losing Factual Gender Information
Nezapomínejte na zájmena: Odstranění genderové předpojatosti v jazykových modelech bez ztráty faktických informací o pohlaví
The representations in large language models contain multiple types of gender information. We focus on two types of such signals in English texts: factual gender information, which is a grammatical or semantic property, and gender bias, which is the correlation between a word and specific gender. We can disentangle the model’s embeddings and identify components encoding both types of information with probing. We aim to diminish the stereotypical bias in the representations while preserving the factual gender signal. Our filtering method shows that it is possible to decrease the bias of gender-neutral profession names without significant deterioration of language modeling capabilities. The findings can be applied to language generation to mitigate reliance on stereotypes while preserving gender agreement in coreferences.
Reprezentace ve velkých jazykových modelech obsahují více typů genderových informací. Zaměřujeme se na dva typy takových signálů v anglických textech: faktické genderové informace, což je gramatická nebo sémantická vlastnost, a genderové zkreslení, což je korelace mezi slovem a konkrétním pohlavím. Můžeme rozpojit vnoření modelu a identifikovat komponenty kódující oba typy informací sondováním. Naším cílem je snížit stereotypní zkreslení v reprezentacích při zachování faktického genderového signálu. Naše filtrační metoda ukazuje, že je možné snížit zkreslení genderově neutrálních profesních názvů bez výrazného zhoršení schopností jazykového modelování. Zjištění lze aplikovat na jazykovou generaci, aby se zmírnilo spoléhání na stereotypy při zachování genderové shody v koreferencích.
[ "Tomasz Limisiewicz", "David Mareček" ]
https://www.semanticscholar.org/paper/8b64c094a4b637189e3a7fb6fed649562bf78f7e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Don’t Forget About Pronouns: Removing Gender Bias in Language Models Without Losing Factual Gender Information
Nezapomínejte na zájmena: Odstranění genderové předpojatosti v jazykových modelech bez ztráty faktických informací o pohlaví
The representations in large language models contain multiple types of gender information. We focus on two types of such signals in English texts: factual gender information, which is a grammatical or semantic property, and gender bias, which is the correlation between a word and specific gender. We can disentangle the model’s embeddings and identify components encoding both types of information with probing. We aim to diminish the stereotypical bias in the representations while preserving the factual gender signal. Our filtering method shows that it is possible to decrease the bias of gender-neutral profession names without significant deterioration of language modeling capabilities. The findings can be applied to language generation to mitigate reliance on stereotypes while preserving gender agreement in coreferences.
Reprezentace ve velkých jazykových modelech obsahují více typů genderových informací. Zaměřujeme se na dva typy takových signálů v anglických textech: faktické genderové informace, což je gramatická nebo sémantická vlastnost, a genderové zkreslení, což je korelace mezi slovem a konkrétním pohlavím. Můžeme rozpojit vnoření modelu a identifikovat komponenty kódující oba typy informací sondováním. Naším cílem je snížit stereotypní zkreslení v reprezentacích při zachování faktického genderového signálu. Naše filtrační metoda ukazuje, že je možné snížit zkreslení genderově neutrálních profesních názvů bez výrazného zhoršení schopností jazykového modelování. Zjištění lze aplikovat na jazykovou generaci, aby se zmírnilo spoléhání na stereotypy při zachování genderové shody v koreferencích.
[ "Tomasz Limisiewicz", "David Mareček" ]
https://www.semanticscholar.org/paper/8b64c094a4b637189e3a7fb6fed649562bf78f7e/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
You Can Have Your Data and Balance It Too: Towards Balanced and Efficient Multilingual Models
Můžete mít svá data a také je vyvážit: Směrem k vyváženým a efektivním vícejazyčným modelům
Multilingual models have been widely used for cross-lingual transfer to low-resource languages. However, the performance on these languages is hindered by their underrepresentation in the pretraining data. To alleviate this problem, we propose a novel multilingual training technique based on teacher-student knowledge distillation. In this setting, we utilize monolingual teacher models optimized for their language. We use those teachers along with balanced (sub-sampled) data to distill the teachers' knowledge into a single multilingual student. Our method outperforms standard training methods in low-resource languages and retrains performance on high-resource languages while using the same amount of data. If applied widely, our approach can increase the representation of low-resource languages in NLP systems.
Vícejazyčné modely byly široce používány pro mezijazyčný přenos do jazyků s nízkými zdroji. Výkonu těchto jazyků však brání jejich nedostatečné zastoupení v datech předtrénování. Abychom tento problém zmírnili, navrhujeme novou vícejazyčnou školicí techniku založenou na destilaci znalostí učitele a studenta. V tomto prostředí využíváme jednojazyčné modely učitelů optimalizované pro jejich jazyk. Tyto učitele používáme spolu s vyváženými (subvzorkovanými) údaji k destilaci znalostí učitelů do jednoho vícejazyčného studenta. Naše metoda překonává standardní tréninkové metody v jazycích s nízkými zdroji a přeškoluje výkon v jazycích s vysokými zdroji při použití stejného množství dat. Pokud bude náš přístup aplikován široce, může zvýšit zastoupení jazyků s nízkými zdroji v systémech NLP.
[ "Tomasz Limisiewicz", "Dan Malkin", "Gabriel Stanovsky" ]
https://www.semanticscholar.org/paper/2231b5e00fa1f8f4b222089fe4bb64a95970b59a/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
NEUREM3 Interim Research Report
Průběžná zpráva NEUREM3
Neural Representations in Multi-modal and Multi-lingual Modeling (NEUREM3) is a project funded by the Czech Science Foundation (GAČR) program “Research, Experimental Development and Innovation for the Support of Basic Research Grant Projects” – EXPRO 2019 from January 2019 till December 2023. This report covers its first three years, 2019–2021. The scientific work was articulated around 5 broad areas: Foundations, Interpretability and task-dependence, Tight integration, Robustness, and Relation of neural representations to multi-lingual concepts. Its description is clustered according to 5 tasks defined in the project proposal and several technical topics. In several of these, we have reached beyond state-of-the-art results. Foreign cooperation in the project was intensive ranging from hiring foreign specialists, through student interns in respected foreign laboratories, to synergies with EU and US projects. The team of the project is consolidated and has a good balance of top-class PI and co-PI, researchers/post-docs, and both Czech and international PhD students. The project is competitive on the international level, the assessment is done via international technology evaluations (challenges), bibliographic metrics, and organization of top international scientific events. NEUREM3 team efficiently cooperates and is at the core of building both Czech and international speech/NLP/MT communities. So far, the project led to a total of 96 publications of which 12 were in peer-reviewed journals, 49 at top conferences, and 35 at local workshops, challenge and evaluation workshops, etc. We are also regularly releasing research data and code in open repositories.
Neurální reprezentace v multimodálním a vícejazyčném modelování (NEUREM3) je projekt financovaný Grantovou agenturou ČR (GAČR) program Výzkum, experimentální vývoj a inovace pro podporu grantových projektů základního výzkumu EXPRO 2019 od ledna 2019 do prosince 2023. Tato zpráva se týká prvních tří let 2019--2021. Vědecká práce se soustředila na 5 širokých oblastí: Základy, Interpretovatelnost a závislost na úkolu, Těsná integrace, Robustnost a Vztah neurálních reprezentací k vícejazyčným konceptům. Jeho popis je seskupený podle 5 úkolů definovaných v návrhu projektu a několika technických témat. V několika z nich jsme dosáhli nad rámec nejmodernějších výsledků. Zahraniční spolupráce na projektu byla intenzivní od najímání zahraničních specialistů, přes studentské stáže v respektovaných zahraničních laboratořích až po synergie s projekty EU a USA. Tým projektu je konsolidovaný a má dobrou rovnováhu mezi špičkovými PI a co-PI, výzkumníky/postdoktorandy a českými i zahraničními doktorandy. Projekt je konkurenceschopný na mezinárodní úrovni, hodnocení probíhá prostřednictvím mezinárodních technologických hodnocení (výzev), bibliografických metrik a pořádání špičkových mezinárodních vědeckých akcí. Tým NEUREM3 efektivně spolupracuje a je jádrem budování české i mezinárodní řečové/NLP/MT komunity. Dosud vedl projekt k celkem 96 publikacím, z nichž 12 bylo v recenzovaných časopisech, 49 na špičkových konferencích a 35 na místních workshopech, challenge a evaluačních workshopech atd. Pravidelně také zveřejňujeme výzkumná data a kód v otevřená úložiště.
[ "Lukáš Burget", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/a723a902f5037b7690a4934d3d0153ef834decea/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
CUNI Submission to the BUCC 2022 Shared Task on Bilingual Term Alignment
CUNI systém pro soutěžní úlohu BUCC 2022 ve vytváření bilingválních terminologických slovníků
We present our submission to the BUCC Shared Task on bilingual term alignment in comparable specialized corpora. We devised three approaches using static embeddings with post-hoc alignment, the Monoses pipeline for unsupervised phrase-based machine translation, and contextualized multilingual embeddings. We show that contextualized embeddings from pretrained multilingual models lead to similar results as static embeddings but further improvement can be achieved by task-specific fine-tuning. Retrieving term pairs from the running phrase tables of the Monoses systems can match this enhanced performance and leads to an average precision of 0.88 on the train set.
Prezentujeme naše řešení soutěžní úlohy BUCC 2022 ve vytváření terminologických slovníků ze specializovaných korpusů. Použili jsme tři přístupy využívající statické vektorové reprezentace s post-hoc zarovnáním, nástroj Monoses pro neřízený strojový překlad a kontextové vektorové reprezentace termínů. Ukazujeme, že kontextové reprezentace z předtrénovaných vícejazyčných modelů vedou k podobným výsledkům jako statické reprezentace, ale lze dosáhnout dalšího zlepšení pomocí dotrénování specifického pro daný úkol. Stejné kvalitě odpovídá slovník termínů získaný z frázových tabulek systému Monoses, který dosahuje průměrné přesnosti 0,88 na trénovacím slovníku.
[ "Borek Požár", "Klára Tauchmanová", "Kristýna Neumannová", "Ivana Kvapilíková", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/f64c6f1d420dd8ec9094c8a0505a8afd53406de5/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Global Coherence of Czech Texts in the Corpus-Based Perspective. Report on the current project of the Institute of Formal and Applied Linguistics MFF UK
Globální koherence českých textů a možnosti jejího korpusového zpracování. Zpráva o aktuálním projektu Ústavu formální a aplikované lingvistiky MFF UK
Report on the current project of the Institute of Formal and Applied Linguistics MFF UK. The project is focused on theoretical research and subsequent corpus representation of the so-called global coherence in Czech written texts.
Zpráva o aktuálním projektu Ústavu formální a aplikované ligvistiky MFF UK. Od ledna 2020 probíhá tříletý projekt Globální koherence českých textů a možnosti jejího korpusového zpracování, zaštítěný Grantovou agenturou České republiky pod vedením Lucie Polákové. Projekt je zaměřen na teoretický výzkum a následné korpusové zachycení tzv. globální koherence v českých psaných textech.
[ "Lucie Poláková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Annotation of global text structures in Prague
Globální textové struktury a jejich anotace v Praze
The lecture describes the annotation of global coherence at the ÚFAL MFF UK, focusing in particular on the application of the Rhetorical Structure Theory to Czech texts.
Přednáška se zabývá anotací globální koherence na ÚFAL MFF UK, zaměřuje se zejména na aplikaci přístupu Rhetorical Structure Theory na české texty.
[ "Lucie Poláková" ]
https://www.semanticscholar.org/paper/1569d18452a7a2f280c17a82adbdf466cbe0e4e8/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Rhetorical Structure Theory as a Model of Global Coherence
Rhetorical Structure Theory jako model globální koherence
For more than a decade, ÚFAL discourse-oriented research concentrated on the description of various linguistic aspects of local, “chain-like” coherence. Global coherence, on the other hand, assumes a hierarchical representation of smaller (clauses, sentences) and larger text units (e.g. paragraphs) and the existence of coherence relations between these units on all levels of the hierarchy. A single interconnected representation for the entire document is postulated, too. In the lecture, one of the most influential models of global coherence will be introduced, the Rhetorical Structure Theory, along with its impact on corpus design, empirical annotation of coherence relations and natural language generation tasks.
Výzkum diskurzu na ÚFAL MFF se již více než deset let soustřeďuje na popis různých jazykových aspektů tzv. lokální "řetězové" koherence. Globální koherence naproti tomu předpokládá hierarchickou reprezentaci menších (klauze, věty) a větších textových jednotek (např. odstavce) a existenci koherenčních vztahů mezi těmito jednotkami na všech úrovních hierarchie. Přepokládá se také jediná spojitá reprezentace celého dokumentu. Přednáška představí jeden z nejvlivnějších modelů globální koherence, Rhetorical Structure Theory, spolu s jeho vlivem na tvorbu korpusů, empirickou anotaci koherenčních vztahů a úlohy generování přirozeného jazyka.
[ "Lucie Poláková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
CUNI Submission to MT4All Shared Task
CUNI systém pro soutěžní workshop MT4All
This paper describes our submission to the MT4All Shared Task in unsupervised machine translation from English to Ukrainian, Kazakh and Georgian in the legal domain. In addition to the standard pipeline for unsupervised training (pretraining followed by denoising and back-translation), we used supervised training on a pseudo-parallel corpus retrieved from the provided monolingual corpora. Our system scored significantly higher than the baseline hybrid unsupervised MT system
Tento článek popisuje naše řešení soutěžní úlohy MT4All v neřízeném strojovém překladu z angličtiny do ukrajinštiny, kazaštiny a gruzínštiny v právnické doméně. Kromě standardního modelu trénovaného bez paralelních dat jsme použili supervizované trénování na pseudoparalelním korpusu získaném dolováním z poskytnutých jednojazyčných korpusů. Náš systém dosáhl výrazně vyššího skóre než baseline.
[ "Ivana Kvapilíková", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/39cf55d1f7f1d14e85abb721116f504a50b60448/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Neural Pipeline for Zero-Shot Data-to-Text Generation
Neuronová pipeline pro generování textu z dat bez trénovacích dat
In data-to-text (D2T) generation, training on in-domain data leads to overfitting to the data representation and repeating training data noise. We examine how to avoid finetuning pretrained language models (PLMs) on D2T generation datasets while still taking advantage of surface realization capabilities of PLMs. Inspired by pipeline approaches, we propose to generate text by transforming single-item descriptions with a sequence of modules trained on general-domain text-based operations: ordering, aggregation, and paragraph compression. We train PLMs for performing these operations on a synthetic corpus WikiFluent which we build from English Wikipedia. Our experiments on two major triple-to-text datasets — WebNLG and E2E — show that our approach enables D2T generation from RDF triples in zero-shot settings.
Při trénování systémů pro generování textu z dat na konkrétní doméně dochází k nadměrnému přizpůsobování modelů reprezentaci dat a opakování chyb v trénovacích datech na výstupu. Zkoumáme, jak se obejít bez dotrénovávání jazykových modelů na datasetech pro tuto úlohu a zároveň přitom využít schopností těchto modelů pro povrchovou realizaci. Inspirováni sekvenčními přístupy navrhujeme generovat text transformací krátkých textů pro jednotlivé položky pomocí posloupnosti modulů natrénovaných na obecných textových operacích: řazení, agregaci a kompresi odstavců. Modely pro provádění těchto operací trénujeme na syntetickém korpusu WikiFluent, který pro tento účel vytváříme z anglické Wikipedie. Naše experimenty na dvou významných datasetech pro převod RDF trojic na text — WebNLG a E2E — ukazují, že náš přístup umožňuje generování textu z RDF trojic i při absenci trénovacích dat.
[ "Zdeněk Kasner", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/eecb01418e5ef618fe4d5eb5080de489a1c7cc95/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
The Czech translator learned Ukrainian quickly. It just sometimes mixes up the names of cities
Český překladač se naučil ukrajinsky rychle. Jen někdy plete jména měst
A new tool will help Czechs communicate with Ukrainians. The machine translator was trained by experts from the Faculty of Mathematics and Physics at Charles University in three weeks. It uses artificial intelligence and is said to be better than Google Translate. It makes different mistakes than humans.
V komunikaci s Ukrajinci pomůže Čechům nový nástroj. Strojový překladač vytrénovali odborníci z Matematicko-fyzikální fakulty UK za tři týdny. Využívá umělé inteligence a je prý lepší než Google Translate. Chybuje jinak než lidé.
[ "Pavel Kasík", "Jindřich Libovický", "Jindřich Helcl", "Michal Novák" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
CUNI Non-Autoregressive System for the WMT 22 Efficient Translation Shared Task
Neautoregresivní systém Univerzity Karlovy pro úlohu efektivního překladu na WMT 2022
We present a non-autoregressive system submission to the WMT 22 Efficient Translation Shared Task. Our system was used by Helcl et al. (2022) in an attempt to provide fair comparison between non-autoregressive and autoregressive models. This submission is an effort to establish solid baselines along with sound evaluation methodology, particularly in terms of measuring the decoding speed. The model itself is a 12-layer Transformer model trained with connectionist temporal classification on knowledge-distilled dataset by a strong autoregressive teacher model.
Představujeme neautoregresivní systém do sdílené úlohy efektivního překladu na WMT 22. Náš systém byl použit v Helcl et al. (2022) ve snaze poskytnout spravedlivé srovnání mezi neautoregresivními a autoregresními modely. Tento příspěvek je snahou poskytnout základní výsledky neautoregresivních modelů spolu se správnou metodologií jejich hodnocení, zejména z hlediska měření rychlosti dekódování. Samotný model je 12vrstvý model Transformer trénovaný s konekcionistickou časovou klasifikací (CTC) na znalostně destilované datové sadě pomocí silného autoregresivního učitelského modelu.
[ "Jindřich Helcl" ]
https://www.semanticscholar.org/paper/ec519e8ee0cfba4a30829edfb82119114f8c36ae/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Non-Autoregressive Machine Translation: It's Not as Fast as it Seems
Neautoregresivní neuronový strojový překlad není tak rychlý jak se může zdát
Efficient machine translation models are commercially important as they can increase inference speeds, and reduce costs and carbon emissions. Recently, there has been much interest in non-autoregressive (NAR) models, which promise faster translation. In parallel to the research on NAR models, there have been successful attempts to create optimized autoregressive models as part of the WMT shared task on efficient translation. In this paper, we point out flaws in the evaluation methodology present in the literature on NAR models and we provide a fair comparison between a state-of-the-art NAR model and the autoregressive submissions to the shared task. We make the case for consistent evaluation of NAR models, and also for the importance of comparing NAR models with other widely used methods for improving efficiency. We run experiments with a connectionist-temporal-classification-based (CTC) NAR model implemented in C++ and compare it with AR models using wall clock times. Our results show that, although NAR models are faster on GPUs, with small batch sizes, they are almost always slower under more realistic usage conditions. We call for more realistic and extensive evaluation of NAR models in future work.
Efektivní modely strojového překladu jsou komerčně důležité, protože mohou zvýšit rychlost překladu a snížit náklady a emise uhlíku. V poslední době je velký zájem o neautoregresivní (NAR) modely, které slibují rychlejší překlad. Paralelně s výzkumem modelů NAR proběhly úspěšné pokusy o vytvoření optimalizovaných autoregresních modelů v rámci sdíleného úkolu WMT o efektivním překladu. V tomto článku poukazujeme na nedostatky v metodice hodnocení v literatuře o modelech NAR a poskytujeme spravedlivé srovnání mezi nejmodernějším modelem NAR a autoregresivními příspěvky ke sdílenému úkolu. Zastáváme důsledné hodnocení modelů NAR a také důležitost porovnávání modelů NAR s jinými široce používanými metodami pro zlepšení efektivity. Provádíme experimenty s modelem NAR založeným na konekcionisticko-temporální klasifikaci (CTC) implementovaným v C++ a porovnáváme jejich čas s autoregresivními modely AR. Naše výsledky ukazují, že ačkoli jsou modely NAR rychlejší na GPU, s malými velikostmi dávek, jsou téměř vždy pomalejší za reálnějších podmínek použití. V budoucí práci požadujeme realističtější a rozsáhlejší hodnocení modelů NAR.
[ "Jindřich Helcl", "Barry Haddow", "Alexandra Birch" ]
https://www.semanticscholar.org/paper/aa9b12e4f7d9f4f02320d4e87f55a1b05c9c6174/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Neural architectures for character-level NLP
Neuronové architektury pro zpracování přirozeného jazyka po znacích
The success of deep learning NLP is often narrated as not assuming anything about the language and letting the data speak for itself. Although this is debatable on many levels, one thing is outstandingly suspicious: most state-of-the-art NLP models assume the existence of discrete tokens and use subword segmentation which combines rules with simple statistical heuristics. Avoiding explicit input segmentations is more difficult than it seems. The first part of the talk will present neural edit distance, a novel interpretable architecture based on well-known Levenshtein distance that can be used for purely character-level tasks such as transliteration or cognate detection. In the second part of the talk, we will zoom out and have a look at character-level methods for neural machine translation. We will present how innovations in training and architectures design can improve translation quality. Despite this progress, we will show that character-level methods in machine translation still lack behind the subword-based models nearly in all respect that can be measured.
Úspěch hlubokého učení NLP je často popisován tak, že o jazyku nic nepředpokládáme a necháváme data mluvit sama za sebe. Ačkoli je to na mnoha úrovních diskutabilní, jedna věc je neobyčejně podezřelá: většina nejmodernějších NLP modelů předpokládá existenci diskrétních tokenů a používá segmentaci na podslova, která kombinuje pravidla s jednoduchými statistickými heuristikami. Vyhnout se explicitní segmentaci vstupi je obtížnější, než se zdá. První část přednášky představí neurální neuronovou edistační vzdálenost, novou interpretovatelnou architekturu založenou na dobře známé Levenshteinově vzdálenosti, kterou lze použít pro čistě znakové úlohy, jako je transliterace nebo detekce kognátů. Ve druhé části přednášky si přiblížíme neuronový strojový překlad na úrovni znaků. Představíme, jak inovace v oblasti trénování a návrhu architektur mohou zlepšit kvalitu překladu. I přes tento pokrok se ukazuje, že metody na úrovni znaků ve strojovém překladu stále zaostávají za modely na bázi podslov téměř ve všech ohledech, které lze měřit.
[ "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/69919d201b7aa62ade7f0481fcbbe17b4bf73fd8/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Neural networks and machine translation
Neuronové sítě a strojový překlad
Neural networks have dominated many areas of computer science in recent years, one of which is machine translation. In this talk, we discuss how machine translation using neural networks works, what are its strengths and weaknesses, and how we at the Faculty of Mathematics and Physics managed to develop a system for translation between Czech and Ukrainian in just two weeks that can compete with the translators of large companies.
Neuronové sítě v posledních letech dominují v mnoha oblastech informatiky a jednou z nich je i automatický překlad. V přednášce si ukážeme, jak strojový překlad pomocí neuronových sítí funguje, jaké jsou jeho silné a slabé stránky a také to, jak se nám na Matematicko-fyzikální fakultě podařilo během pouhých dvou týdnů vyvinout systém pro překlad mezi češtinou a ukrajinštinou, který může konkurovat překladačům velkých firem.
[ "Jindřich Libovický" ]
https://www.semanticscholar.org/paper/1eb09fecd75eb27825dce4f964b97f4f5cc399d7/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Neural String Edit Distance
Neuronová editační vzdálenost
We propose the neural string edit distance model for string-pair matching and string transduction based on learnable string edit distance. We modify the original expectation-maximization learned edit distance algorithm into a differentiable loss function, allowing us to integrate it into a neural network providing a contextual representation of the input. We evaluate on cognate detection, transliteration, and grapheme-to-phoneme conversion, and show that we can trade off between performance and interpretability in a single framework. Using contextual representations, which are difficult to interpret, we match the performance of state-of-the-art string-pair matching models. Using static embeddings and a slightly different loss function, we force interpretability, at the expense of an accuracy drop.
Navrhujeme model neuronová editační vzdálenost pro párování řetězců a převod řetězců na základě naučené editační vzdálenosti. Upravili jsme původní MT algoritmus tak, aby využíval diferencovalnou ztrátovou funkci, což nám umožňuje integrovat ji do neuronové sítě poskytující kontextovou reprezentaci vstupu. Hodnotíme detekci kognatů, transliteraci a konverzi grafémů na fonémy a ukazujeme, že v jednom teoretickém rámci připravovat modely, kde jde proti sobě intepretovatelnost a přesnost. Pomocí kontextových reprezentací, které jsou ale hůře interpretovatelné, dosahuje stejné přesnosti jako nejlepší metody pro párování řetězců. Pomocí statických embedingů a mírně odlišné ztrátové funkce dokážeme vynutit interpretabilitu na úkor poklesu přesnosti.
[ "Jindřich Libovický", "Alexander Fraser" ]
https://www.semanticscholar.org/paper/ee5954bd69b624b2f6ae51b46607878993f2c4b3/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Why don’t people use character-level machine translation?
Proč se nepoužívá strojový překlad po znacích?
We present a literature and empirical survey that critically assesses the state of the art in character-level modeling for machine translation (MT). Despite evidence in the literature that character-level systems are comparable with subword systems, they are virtually never used in competitive setups in WMT competitions. We empirically show that even with recent modeling innovations in character-level natural language processing, character-level MT systems still struggle to match their subword-based counterparts. Character-level MT systems show neither better domain robustness, nor better morphological generalization, despite being often so motivated. However, we are able to show robustness towards source side noise and that translation quality does not degrade with increasing beam size at decoding time.
V článku prezentuje přehled literatury a empirický průzkum, který kriticky hodnotí předchozí práci v oblasti strojového překladu na úrovni znaků. Navzdory tvrzením v literatuře, že systémy na úrovni znaků jsou srovnatelné se systémy, které pracují na úrovni podslov, prakticky nikdy se nepoužívají v soutěžních systémech WMT. Empiricky ukazujeme, že i s nedávnými inovacemi v modelování zpracování přirozeného jazyka na úrovni znaků se systémy strojového překladu na úrovni znaků stále obtížně vyrovnávají svým protějškům na bázi podslov. Strojový překlad na úrovni znaků nevykazuje ani lepší doménovou robustnost, ani lepší morfologické zobecnění, přestože to bývá často hlavní motivace pro jejich vývoj. Systémy zpracovávající vstup po znacích naopak vykazují velkou robustnost vůči šumu a že kvalita překladu neklesá ani s klesající mírou ořezávání během dekódování.
[ "Jindřich Libovický", "Helmut Schmid", "Alexander Fraser" ]
https://www.semanticscholar.org/paper/f9f27e0f196e1b76caa44cf11aef7a40ca95b3f0/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
The age of large language models
Doba velkých jazykových modelů
A talk summarizing the basics of large language models and their recent development.
Přednáška shrnující fungování velkých jazykových modelů a jejich nedávný vývoj.
[ "Jindřich Libovický", "Jindřich Helcl" ]
https://www.semanticscholar.org/paper/aa92dc559b8845bf134f3bfad4fc188615453dfb/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Conversion in English and Czech: a corpus study of semantic relations between nouns and verbs
Konverze v angličtině a češtině: korpusová studie sémantických vztahů mezi substantivy a slovesy
Abstract The aim of this MA thesis is to carry out a corpus-based contrastive study of the semantic relations between verbs and nouns in conversion pairs in English and Czech. Pairs of verbs and nouns like run.v – run.n, salt.n – salt.v in English and běžet/běhat ‘run.v’ – běh ‘run.n’, sůl ‘salt.n’ – solit ‘salt.v’ in Czech are taken to be the result of a word-formation process called conversion, in which a new word belonging to a different word class is created without the addition of any derivational affixes. Using a sample of 300 such pairs in both languages, extracted from the British National Corpus for English and from the SYN2015 corpus for Czech, we analyse and classify the different semantic relations existing between the nouns and verbs. We adopt a cognitive approach and classify the semantic relations based on conceptual event schemata and their elements. Because the nouns and/or verbs are often polysemous, the semantic classification also accounts for the possibility of multiple semantic relations existing between the verb and the noun in one conversion pair. In the analysis, we examine and compare the frequencies with which the different semantic relations appear in the conversion pairs in English and Czech, as well as the patterns of multiple semantic relations that appear together in a single conversion pair.
Cílem této diplomové práce je provést korpusově založenou kontrastivní studii sémantických vztahů mezi slovesy a substantivy v konverzních dvojicích v angličtině a češtině. Dvojice sloves a substantiv jako run.v ‘běžet/běhat’ – run.n ‘běh’, salt.n ‘sůl’ – salt.v ‘solit’ v angličtině a běžet/běhat – běh, sůl – solit v češtině jsou považovány za výsledky slovotvorného procesu nazývaného konverze, ve kterém je vytvořeno nové slovo patřící k odlišnému slovnímu druhu bez použití slovotvorných afixů. S použitím vzorku 300 takovýchto párů v obou jazycích, získaného z Britského národního korpusu pro angličtinu a z korpusu SYN2015 pro češtinu, analyzujeme a klasifikujeme sémantické vztahy mezi slovesy a substantivy. Zaujímáme kognitivní přístup a sémantické vztahy klasifikujeme na základě konceptuálních schémat událostí a jejich složek. Protože substantiva a/nebo slovesa jsou často polysémní, tato sémantická klasifikace také počítá s možností existence více různých sémantických vztahů mezi slovesem a substantivem v jedné konverzní dvojici. V rámci analýzy je zkoumána a porovnána frekvence, se kterou se různé sémantické vztahy objevují v konverzních párech v angličtině a češtině, a také vzorce více různých sémantických vztahů v rámci jednoho konverzního páru.
[ "Hana Hledíková" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Excerpt from the theatre play AI: When a Robot Writes a Play
Úryvek z divadelní hry AI: Když robot píše hru
A description of the project, an explanation of the functioning of the GPT-2 model and a sample from the script of the play.
Popis projektu, vysvětlení fungování modelu GPT-2 a ukázka ze scénáře divadelní hry.
[ "1.0 THEaiTRobot", "David Košťák", "Daniel Hrbek", "Rudolf Rosa", "Ondřej Dušek" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Charles Translator for Ukraine
Charles Translator for Ukraine
How does a machine learn a new language? Over the course of two weeks in March 2022, a team of experts from MFF UK trained a Ukrainian-Czech translator, which the public could immediately use for free thanks to the research infrastructure Lindat.cz, later also using the web interface (translator.cuni.cz) and the mobile application Charles Translator for Ukraine. This lecture will present the experience from the development and half a year of improvements and operation of this translator.
Jak se stroj učí nový jazyk? Během dvou týdnů v březnu 2022 tým odborníků z MFF UK natrénoval ukrajinsko-český překladač, který mohla veřejnost ihned zdarma používat díky výzkumné infrastruktuře Lindat.cz, později též pomocí webové (translator.cuni.cz) a mobilní aplikace Charles Translator for Ukraine. Tato přednáška představí zkušenosti z vývoje a půlročního vylepšování a provozování tohoto překladače.
[ "Martin Popel" ]
https://www.semanticscholar.org/paper/7fc4983eb7366cde9a12767647062891e76203b4/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2022
Machine translation and artificial intelligence
Strojový překlad a umělá inteligence
The lecture will briefly present some of the tasks covered by computer linguistics, such as automatic correction of typos/grammar or automatic sentence analysis. The main focus will be on the role of machine translation, especially the development of various types of translators from English to Czech over the last decade. Today's best translators are based on artificial intelligence technologies, namely deep (artificial) neural networks, and the quality of the resulting translation is close to that of a professional translation agency. Some translation errors are caused by translating individual sentences independently, which is solved by a newly published translator of whole documents. The lecture will also discuss how human translation differs from machine translation, how artificial neural networks differ from the human brain, and whether we can rely on machine translation.
Přednáška krátce představí některé úlohy, kterými se zabývá počítačová lingvistika, například automatickou opravu překlepů/gramatiky či automatický větný rozbor. Hlavní pozornost bude věnována úloze strojového překladu, zejména vývoji různých typů překladačů z angličtiny do češtiny během posledního desetiletí. Dnešní nejlepší překladače jsou založeny na technologiích umělé inteligence, konkrétně hlubokých (umělých) neuronových sítí, a kvalita výsledného překladu se blíží úrovni profesionální překladatelské agentury. Některé překladové chyby jsou způsobeny překládáním jednotlivých vět nezávisle, což řeší nově zveřejněný překladač celých dokumentů. V přednášce bude též diskutováno, jak se liší lidský překlad od toho strojového, jak se liší umělé neuronové sítě od lidského mozku a zda se můžeme na strojový překlad spolehnout.
[ "Martin Popel" ]
https://www.semanticscholar.org/paper/d4e3000ac8cc21a36ef2487c819bea8648226b96/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
CUNI Systems for the WMT 22 Czech-Ukrainian Translation Task
Systémy Univerzity Karlovy pro soutěžní úkol WMT22 v česko-ukrajinském překladu
We present Charles University submissions to the WMT22 General Translation Shared Task on Czech-Ukrainian and Ukrainian-Czech machine translation. We present two constrained submissions based on block back-translation and tagged back-translation and experiment with rule-based romanization of Ukrainian. Our results show that romanization only has a minor effect on the translation quality. Further, we describe Charles Translator, a system developed in March 2022 as a response to the migration from Ukraine to the Czech Republic. Compared to our constrained systems, it did not use romanization and used some proprietary data sources.
Představujeme příspěvky Univerzity Karlovy do soutěžního úkolu WMT22 týkající se česko-ukrajinského a ukrajinsko-českého strojového překladu. Představujeme dvě systémy, které využívají omezená data. Jeden využívá blokový zpětném překladu a druhý značený zpětném překladu. Dále experimentujeme s pravidlovou romanizací ukrajinského textu. Naše výsledky ukazují, že romanizace má na kvalitu překladu jen malý vliv. Dále popisujeme systém Charles Translator, který byl vyvinut v březnu 2022 jako reakce na migraci z Ukrajiny do České republiky. Oproti našim s omezenými data, nepoužíval romanizaci a využíval některé zdroje dat, které nebyly součástí soutěžního úkolu.
[ "Martin Popel", "Jindřich Libovický", "Jindřich Helcl" ]
https://www.semanticscholar.org/paper/7fc4983eb7366cde9a12767647062891e76203b4/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
DialogueScript: Using Dialogue Agents to Produce a Script
DialogueScript: Využití dialogových agentů pro tvorbu scénáře
We present a novel approach to generating scripts by using agents with different personality types. To manage character interaction in the script, we employ simulated dramatic networks. Automatic and human evaluation on multiple criteria shows that our approach outperforms a vanilla-GPT2-based baseline. We further introduce a new metric to evaluate dialogue consistency based on natural language inference and demonstrate its validity.
Představujeme nový přístup k generování scénářů pomocí agentů s různými typy osobnosti. Pro řízení interakce postav ve scénáři využíváme simulované dramatické sítě. Automatické a lidské hodnocení na více kritériích ukazuje, že náš přístup překonává základní úroveň založenou na vanilkovém GPT2. Dále zavádíme novou metriku pro hodnocení konzistence dialogu na základě inference přirozeného jazyka a demonstrujeme její platnost.
[ "Patrícia Schmidtová", "Dávid Javorský", "Christián Mikláš", "Tomáš Musil", "Rudolf Rosa", "Ondřej Dušek" ]
https://www.semanticscholar.org/paper/286f5c792c0f1fda6dae690b238f13654001f3e1/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
THEaiTRE: Generating Theatre Play Scripts using Artificial Intelligence
THEaiTRE: Generování scénářů divadelních her pomocí umělé inteligence
In this book, we describe THEaiTRE, an interdisciplinary project combining theatre and computational linguistics, with its main result being a production and staging of the first computer-generated theatre play. The goal of the project was to explore the potential of current artificial intelligence techniques to be incorporated into theatre practice. Within the project, we managed to generate scripts of two theatre plays, AI: When a Robot Writes a Play and Permeation. The plays were then staged, rehearsed and premiered in theatres. We dedicate the first part of this book to the process of creating and staging the actual plays and to various theatrical aspects of the project. This part of the book is accessible to any reader. The scripts for the plays were created using our online interactive script generation tool called THEaiTRobot. As the tool is one of the main results of this project, the whole second part of this book is dedicated to the design of the tool and the research and experiments we performed. Most of that part of the book is quite technical, intended for a reader with some background in computer science and/or computational linguistics.
V této knize představujeme THEaiTRE, interdisciplinární projekt propojující divadlo a počítačovou lingvistiku, jehož hlavním výsledkem byla produkce a inscenace první počítačově vytvořené divadelní hry. Cílem projektu bylo prozkoumat potenciál současných technik umělé inteligence, které by mohly být začleněny do divadelní praxe. V rámci projektu se nám podařilo vygenerovat scénáře dvou divadelních her, AI: Když robot píše hru a Prostoupení. Hry pak byly inscenovány, nazkoušeny a uvedeny v divadlech. První část této knihy věnujeme procesu tvorby a inscenování samotných her a různým divadelním aspektům projektu. Tato část knihy je přístupná všem čtenářům. Scénáře ke hrám byly vytvořeny pomocí našeho online interaktivního nástroje na generování scénářů s názvem THEaiTRobot. Vzhledem k tomu, že tento nástroj je jedním z hlavních výsledků tohoto projektu, celá druhá část této knihy je věnována návrhu nástroje a provedenému výzkumu a experimentům. Většina této části knihy je spíše odborná, určená čtenáři s určitým vzděláním v oblasti informatiky a/nebo počítačové lingvistiky.
[ "Patrícia Schmidtová", "Rudolf Rosa", "David Košťák", "Tomáš Studeník", "Daniel Hrbek", "Tomáš Musil", "Josef Doležal", "Ondřej Dušek", "David Mareček", "Klára Vosecká", "Marie Nováková", "Petr Žabka", "Alisa Zakhtarenko", "Dominik Jurko", "Martina Kinská", "Tom Kocmi", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/5cf787dcb21cc9db4a689c57702d0a247222a3ff/
null
null
null
null
null
null
null
null
null
null
null
null
en
2022
Findings of the 2022 Conference on Machine Translation (WMT22)
Výsledky konference WMT 2022
The article presents the results of WMT22 translation shared tasks.
Článek prezentuje výsledky překladové soutěže WMT22, včetně automatických a ručních hodnocení.
[ "Rachel Bawden", "Ondřej Bojar", "Rajen Chatterjee", "Anton Dvorkovich", "Christian Federmann", "Mark Fishel", "Markus Freitag", "Thamme Gowda", "Yvette Graham", "Roman Grundkiewicz", "Barry Haddow", "Matthias Huck", "Rebecca Knowles", "Tom Kocmi", "Philipp Koehn", "Christof Monz", "Makoto Morishita", "Masaaki Nagata", "Toshiaki Nakazawa", "Matteo Negri", "Michal Novák", "Martin Popel", "Maja Popović", "Mariya Shmatova", "Marco Turchi" ]
https://www.semanticscholar.org/paper/8d188daf721fde8de4877718e96f89ae9d7a1925/
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
Towards Establishing a Research Lineage via Identification of Significant Citations
Směrem k vytvoření výzkumné linie prostřednictvím identifikace významných citací
Finding the lineage of a research topic is crucial for understanding the prior state of the art and advancing scientific displacement. The deluge of scholarly articles makes it difficult to locate the most relevant previous work. It causes researchers to spend a considerable amount of time building up their literature list. Citations play a crucial role in discovering relevant literature. However, not all citations are created equal. The majority of the citations that a paper receives provide contextual and background information to the citing papers. In those cases, the cited paper is not central to the theme of citing papers. However, some papers build upon a given paper, further the research frontier. In those cases, the concerned cited paper plays a pivotal role in the citing paper. Hence, the nature of citation the former receives from the latter is significant. In this work, we discuss our investigations towards discovering significant citations of a given paper. We further show how we can leverage significant citations to build a research lineage via a significant citation graph. We demonstrate the efficacy of our idea with two real-life case studies. Our experiments yield promising results with respect to the current state-of-the-art in classifying significant citations, outperforming the earlier ones by a relative margin of 20 points in terms of precision. We hypothesize that such an automated system can facilitate relevant literature discovery and help identify knowledge flow for a particular category of papers.
Nalezení rodokmenu výzkumného tématu je klíčové pro pochopení předchozího stavu umění a postupujícího vědeckého posunu. Záplava odborných článků ztěžuje nalezení nejvhodnější předchozí práce. Výzkumníci tak tráví značné množství času sestavováním seznamu literatury. Citace hrají zásadní roli při objevování relevantní literatury. Nicméně ne všechny citace jsou vytvořeny stejně. Většina citací, které noviny obdrží, poskytuje podkladové a kontextové informace citujícím dokumentům. V těchto případech není citovaný dokument ústředním tématem citujících listin. Některé dokumenty však vycházejí z daného papíru, čímž se dále posouvá hranice výzkumu. V těchto případech hraje dotčený citovaný dokument v citujícím dokumentu stěžejní roli. Podstata citace, kterou prvně jmenovaný obdrží od druhého, je tedy významná. V této práci probíráme naše výzkumy směřující k objevení významných citací daného dokumentu. Dále ukazujeme, jak můžeme využít významné citace k sestavení výzkumné linie prostřednictvím významného citačního grafu. Účinnost naší myšlenky demonstrujeme dvěma případovými studiemi v reálném životě. Naše experimenty přinášejí slibné výsledky, pokud jde o současný stav klasifikace významných citací, předčí ty předchozí s relativním náskokem 20 bodů, pokud jde o přesnost. Předpokládáme, že takový automatizovaný systém může usnadnit vyhledávání příslušné literatury a pomoci identifikovat tok znalostí pro určitou kategorii papírů.
[ "Tirthankar Ghosal", "Piyush Tiwari", "Robert Patton", "Christopher Stahl" ]
https://www.semanticscholar.org/paper/ccfb2ae2739d19ff20e2d0ccc687417aa6b8efeb/
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
Towards Finding a Research Lineage Leveraging on Identification of Significant Citations
Směrem k nalezení výzkumného původu, který by se opíral o identifikaci významných citací.
Finding the lineage of a research topic is crucial for understanding the prior state of the art and advancing scientific displacement. The deluge of scholarly articles makes it difficult to locate the most relevant prior work and causes researchers to spend a considerable amount of time building up their literature list. Citations play a significant role in discovering relevant literature. However, not all citations are created equal. A majority of the citations that a paper receives are for providing contextual, and background information to the citing papers and are not central to the theme of those papers. However, some papers are pivotal to the citing paper and inspire or stem up the research in the citing paper. Hence the nature of citation the former receives from the latter is significant. In this work in progress paper, we discuss our preliminary idea towards establishing a lineage for a given research via identifying significant citations. We hypothesize that such an automated system can facilitate relevant literature discovery and help identify knowledge flow for at least a certain category of papers. The distal goal of this work is to identify the real impact of research work or a facility beyond direct citation counts.
Nalezení rodokmenu výzkumného tématu je klíčové pro pochopení předchozího stavu umění a postupujícího vědeckého posunu. Záplava odborných článků ztěžuje vyhledávání nejvýznamnějších předchozích prací a způsobuje, že výzkumníci tráví značné množství času sestavováním seznamu literatury. Citace hrají významnou roli při objevování relevantní literatury. Nicméně ne všechny citace jsou vytvořeny stejně. Většina citací, které redakce obdrží, slouží k poskytování kontextuálních a podkladových informací citujícím listinám a nejsou ústředním tématem těchto listin. Některé práce jsou však pro citující noviny stěžejní a inspirují nebo brzdí výzkum v citujících novinách. Z toho vyplývá, že podstata citace, kterou prvně jmenovaný obdrží od druhého, je významná. V tomto rozpracovaném dokumentu diskutujeme o naší předběžné myšlence vytvořit rodokmen pro daný výzkum prostřednictvím identifikace významných citací. Předpokládáme, že takový automatizovaný systém může usnadnit vyhledávání příslušné literatury a pomoci identifikovat tok znalostí alespoň pro určitou kategorii papírů. Distálním cílem této práce je zjistit skutečný dopad výzkumné práce nebo zařízení mimo přímá citační čísla.
[ "Tirthankar Ghosal", "Muskaan Singh" ]
https://www.semanticscholar.org/paper/6ba81dcad61438f888d267eeeded14d9cf409a73/
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
Report on the SIGDial 2021 Special Session on Summarization of Dialogues and Multi-Party Meetings (SummDial)
Zpráva o zvláštním zasedání SIGDial 2021 o sumarizaci dialogů a vícestranných setkáních (SummDial)
The SummDial special session on summarization of dialogues and multi-party meetings was held virtually within the SIGDial 2021 conference on July 29, 2021. SummDial @ SIGDial 2021 aimed to bring together the speech, dialogue, and summarization communities to foster cross-pollination of ideas and fuel the discussions/collaborations to attempt this crucial and timely problem. When the pandemic has restricted most of our in-person interactions, the current scenario has forced people to go virtual, resulting in an information overload from frequent dialogues and meetings in the virtual environment. Summarization could help reduce the cognitive burden on the participants; however, multi-party speech summarization comes with its own set of challenges. The SummDial special session aimed to leverage the community intelligence to find effective solutions while also brainstorming the future of AI interventions in meetings and dialogues. We report the findings of the special session in this article. We organized the SummDial special session under the aegis of the EU-funded H2020 European Live Translator (ELITR) project.
Speciální zasedání SummDial o sumarizaci dialogů a setkání více stran se konalo prakticky v rámci konference SIGDial 2021 dne 29. července 2021. SummDial @ SIGDial 2021 si kladl za cíl spojit komunity zabývající se řečí, dialogem a sumarizací, aby se podpořilo vzájemné opylování myšlenek a podpořily diskuse/spolupráce při pokusu o tento zásadní a aktuální problém. Když pandemie omezila většinu našich osobních interakcí, současný scénář donutil lidi přejít na virtuální, což vyústilo v zahlcení informacemi z častých dialogů a setkání ve virtuálním prostředí. Shrnutí by mohlo pomoci snížit kognitivní zátěž účastníků, nicméně sumarizace projevů více stran přináší vlastní soubor výzev. Speciální zasedání SummDial si kladlo za cíl využít komunitní zpravodajství k nalezení efektivních řešení a zároveň brainstorming o budoucnosti intervencí umělé inteligence na zasedáních a dialozích. O výsledcích zvláštního zasedání informujeme v tomto článku. Speciální sekci SummDial jsme uspořádali pod záštitou projektu H2020 European Live Translator (ELITR) financovaného EU.
[ "Tirthankar Ghosal", "Muskaan Singh", "Anna Nedoluzhko", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/09cc9d384e390824c241286d5d0874bdc4cf9392/
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
D3.9 Report on Ontology and Vocabulary Collection and Publication
D3.9 Zpráva o shromažďování a zveřejňování ontologií a slovníků
The deliverable presents three detailed case studies for each of the main topical areas of SSHOC Task 3.1 “Multilingual Terminologies'' aiming to investigate NLP and MT approaches in view of providing resources and tools to foster multilingual access to SSH content across different languages and improve discovery by non-native speakers. A set of multilingual metadata concepts, multilingual vocabularies and automatically extracted multilingual terminologies has been delivered as freely, openly available data, fully corresponding to the FAIR principles promoted within the EOSC, findable through the VLO and other CLARIN and SSHOC services.
Tento výstup představuje tři podrobné případové studie pro každou z hlavních tematických oblastí úkolu SSHOC 3.1 "Vícejazyčné terminologie", jejichž cílem je prozkoumat přístupy NLP a MT s ohledem na poskytování zdrojů a nástrojů pro podporu vícejazyčného přístupu k obsahu SSH v různých jazycích a zlepšení vyhledávání pro nerodilé mluvčí. Soubor vícejazyčných metadatových konceptů, vícejazyčných slovníků a automaticky extrahovaných vícejazyčných terminologií byl dodán jako volně dostupná data, plně odpovídající zásadám FAIR prosazovaným v rámci EOSC, která lze nalézt prostřednictvím VLO a dalších služeb CLARIN a SSHOC.
[ "Francesca Frontini", "Federica Gamba", "Monica Monachini", "Daan Broeder", "Kea Tijdens", "Irena Vipavc Brvar" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
Synthesizing Training Data for Handwritten Music Recognition
Syntetizování trénovacích dat pro rozpoznávání ručně psaných notopisů
Handwritten music recognition is a challenging task that could be of great use if mastered, e.g., to improve the accessibility of archival manuscripts or to ease music composition. Many modern machine learning techniques, however, cannot be easily applied to this task because of the limited availability of high-quality training data. Annotating such data manually is expensive and thus not feasible at the necessary scale. This problem has already been tackled in other fields by training on automatically generated synthetic data. We bring this approach to handwritten music recognition and present a method to generate synthetic handwritten music images (limited to monophonic scores) and show that training on such data leads to state-of-the-art results.
Rozpoznávání ručně psané hudby je náročná úloha, které může vést ke zlepšení dostupnosti archivních rukopisů nebo usnadnění hudební kompozice. Moderních metody strojového učení však nelze na tuto úlohu snadno aplikovat kvůli omezené dostupnosti kvalitních trénovacích dat. Ruční anotace takových dat je drahá, a proto není v potřebném měřítku proveditelná. Tento problém již byl v jiných oblastech vyřešen trénováním na automaticky generovaných syntetických datech. V tomto článku používáme stejný přístup k rozpoznávání ručně psané hudby a představujeme metodu generování syntetických snímků ručně psaných hudebních zápisů a ukazujeme, že trénování na těchto datech vede k výborným výsledkům.
[ "Jiří Mayer", "Pavel Pecina" ]
https://www.semanticscholar.org/paper/426690adfa92a77e50cb28bd86298c2f481ebcdc/
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
A Multitask Learning Approach for Fake News Detection: Novelty, Emotion, and Sentiment Lend a Helping Hand
Přístup pro učení se více úkolů pro detekci falešných zpráv: novinka, emoce a cit půjčí pomocnou ruku
The recent explosion in false information on social media has led to intensive research on automatic fake news detection models and fact-checkers. Fake news and misinformation, due to its peculiarity and rapid dissemination, have posed many interesting challenges to the Natural Language Processing (NLP) and Machine Learning (ML) community. Admissible literature shows that novel information includes the element of surprise, which is the principal characteristic for the amplification and virality of misinformation. Novel and emotional information attracts immediate attention in the reader. Emotion is the presentation of a certain feeling or sentiment. Sentiment helps an individual to convey his emotion through expression and hence the two are co-related. Thus, Novelty of the news item and thereafter detecting the Emotional state and Sentiment of the reader appear to be three key ingredients, tightly coupled with misinformation. In this paper we propose a deep multitask learning model that jointly performs novelty detection, emotion recognition, sentiment prediction, and misinformation detection. Our proposed model achieves the state-of-the-art(SOTA) performance for fake news detection on three benchmark datasets, viz. ByteDance, Fake News Challenge(FNC), and Covid-Stance with 11.55%, 1.58%, and 21.76% improvement in accuracy, respectively. The proposed approach also shows the efficacy over the single-task framework with an accuracy gain of 11.53, 28.62, and 14.31 percentage points for the above three datasets. The source code is available at https://github.com/Nish-19/MultitaskFake-News-NES
Nedávný výbuch falešných informací na sociálních média vedla k intenzivnímu výzkumu automatických modelů fake news detection a ověřovačů faktů. Falešné zprávy a dezinformace, vzhledem ke své zvláštnosti a rychlému šíření, představovaly mnoho zajímavé výzvy v oblasti zpracování přirozeného jazyka (NLP) a komunity Machine Learning (ML). Přípustná literatura ukazuje, že neotřelé informace zahrnují moment překvapení, což je hlavní charakteristika pro zesílení a viralita dezinformací. Román a emocionální informace přitahuje okamžitou pozornost čtenáře. Emoce jsou prezentace určitého pocitu nebo sentimentu. Sentiment pomáhá jedince, který by vyjadřoval své emoce prostřednictvím výrazu a proto spolu tyto dvě věci souvisejí. Tedy novinka v novince a následně zjištění emočního stavu a pocitu čtečka vypadá jako tři klíčové ingredience, těsně spojené s dezinformacemi. V tomto dokumentu navrhujeme hluboký multiúkol učící se model, který společně provádí detekci novot, emocí rozpoznávání, předpovídání nálad a odhalování dezinformací. Náš navrhovaný model dosahuje nejmodernějších parametrů (SOTA) pro detekci falešných zpráv na třech srovnávacích datasetech, viz. ByteDance, Fake News Challenge(FNC), a Covid-Stance s 11,55%, 1,58% a 21,76% zlepšením přesnosti, respektive. Navrhovaný přístup také ukazuje na účinnost rámec jednoho úkolu se ziskem přesnosti 11,53, 28,62, a 14,31 procentního bodu u výše uvedených tří souborů údajů. Zdrojový kód je dostupný na https://github.com/Nish-19/MultitaskFake-News-NES
[ "Rina Kumari", "Nischal Ashok", "Tirthankar Ghosal", "Asif Ekbal" ]
https://www.semanticscholar.org/paper/7a708e14b833b7c87919caa05c73b7cb8c31264a/
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
Misinformation detection using multitask learning with mutual learning for novelty detection and emotion recognition
Detekce dezinformací pomocí víceúkolového učení se vzájemným učením pro detekci novot a rozpoznávání emocí
Fake news or misinformation is the information or stories intentionally created to deceive or mislead the readers. Nowadays, social media platforms have become the ripe grounds for misinformation, spreading them in a few minutes, which led to chaos, panic, and potential health hazards among people. The rapid dissemination and a prolific rise in the spread of fake news and misinformation create the most time-critical challenges for the Natural Language Processing (NLP) community. Relevant literature reveals that the presence of an element of surprise in the story is a strong driving force for the rapid dissemination of misinformation, which attracts immediate attention and invokes strong emotional stimulus in the reader. False stories or fake information are written to arouse interest and activate the emotions of people to spread it. Thus, false stories have a higher level of novelty and emotional content than true stories. Hence, Novelty of the news item and recognizing the Emotional state of the reader after reading the item seems two key tasks to tightly couple with misinformation Detection. Previous literature did not explore misinformation detection with mutual learning for novelty detection and emotion recognition to the best of our knowledge. Our current work argues that joint learning of novelty and emotion from the target text makes a strong case for misinformation detection. In this paper, we propose a deep multitask learning framework that jointly performs novelty detection, emotion recognition, and misinformation detection. Our deep multitask model achieves state-of-the-art (SOTA) performance for fake news detection on four benchmark datasets, viz. ByteDance, FNC, Covid-Stance and FNID with 7.73%, 3.69%, 7.95% and 13.38% accuracy gain, respectively. The evaluation shows that our multitask learning framework improves the performance over the single-task framework for four datasets with 7.8%, 28.62%, 11.46%, and 15.66% overall accuracy gain. We claim that textual novelty and emotion are the two key aspects to consider while developing an automatic fake news detection mechanism. The source code is available at https://github.com/Nish-19/Misinformation-Multitask-Attention-NE.
Falešné zprávy nebo dezinformace jsou informace nebo příběhy záměrně vytvořené s cílem oklamat nebo uvést čtenáře v omyl. V dnešní době se platformy sociálních médií staly zralým důvodem k dezinformacím a během několika minut je rozšířily, což vedlo k chaosu, panice a potenciálním zdravotním rizikům mezi lidmi. Rychlé šíření a plodný nárůst šíření falešných zpráv a dezinformací vytváří časově nejkritičtější výzvy pro komunitu zpracování přirozeného jazyka (NLP). Z příslušné literatury vyplývá, že přítomnost momentu překvapení v příběhu je silnou hnací silou rychlého šíření dezinformací, které přitahuje okamžitou pozornost a vyvolává ve čtenáři silné emocionální podněty. Falešné příběhy nebo falešné informace jsou psány, aby vzbudily zájem a aktivovaly emoce lidí, aby je šířili. Falešné příběhy mají tedy vyšší úroveň novosti a emočního obsahu než pravdivé příběhy. Z toho vyplývá, že novost zpravodajského příspěvku a rozpoznání emočního stavu čtenáře po přečtení příspěvku jsou dva klíčové úkoly, které úzce souvisejí s odhalováním dezinformací. Předchozí literatura nezkoumala detekci dezinformací vzájemným učením pro detekci novot a rozpoznávání emocí podle našeho nejlepšího vědomí. Naše současná práce tvrdí, že společné učení novosti a emocí z cílového textu je pádným argumentem pro odhalování dezinformací. V tomto dokumentu navrhujeme hluboký víceúčelový vzdělávací rámec, který společně provádí detekci novot, rozpoznávání emocí a detekci dezinformací. Náš hluboký multitask model dosahuje nejmodernějších výkonů (SOTA) pro detekci falešných zpráv na čtyřech srovnávacích datasetech, viz. ByteDance, FNC, Covid-Stance a FNID s přesností 7,73%, 3,69%, 7,95% a 13,38%. Z hodnocení vyplývá, že náš víceúkolový vzdělávací rámec zlepšuje výkon oproti jednoúkolovému rámci pro čtyři datové soubory o 7,8 %, 28,62 %, 11,46 % a 15,66 % celkového zisku přesnosti. Tvrdíme, že textová novinka a emoce jsou dva klíčové aspekty, které je třeba zvážit při vývoji automatického mechanismu detekce falešných zpráv. Zdrojový kód je dostupný na adrese https://github.com/Nish-19/Misinformation-Multitask-Attention-NE.
[ "Rina Kumari", "Nischal Ashok", "Tirthankar Ghosal", "Asif Ekbal" ]
https://www.semanticscholar.org/paper/801ad5f8880d80dc7b3ba8f70c01f78daa97439f/
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
What the fake? Probing misinformation detection standing on the shoulder of novelty and emotion
Co je to za padělek? Zkoumání detekce dezinformací stojící na rameni novosti a emocí
One of the most time-critical challenges for the Natural Language Processing (NLP) community is to combat the spread of fake news and misinformation. Existing approaches for misinformation detection use neural network models, statistical methods, linguistic traits, fact-checking strategies, etc. However, the menace of fake news seems to grow more vigorous with the advent of humongous and unusually creative language models. Relevant literature reveals that one major characteristic of the virality of fake news is the presence of an element of surprise in the story, which attracts immediate attention and invokes strong emotional stimulus in the reader. In this work, we leverage this idea and propose textual novelty detection and emotion prediction as the two tasks relating to automatic misinformation detection. We re-purpose textual entailment for novelty detection and use the models trained on large-scale datasets of entailment and emotion to classify fake information. Our results correlate with the idea as we achieve state-of-the-art (SOTA) performance (7.92%, 1.54%, 17.31% and 8.13% improvement in terms of accuracy) on four large-scale misinformation datasets. We hope that our current probe will motivate the community to explore further research on misinformation detection along this line. The source code is available at the GitHub.2
Jednou z časově nejkritičtějších výzev pro komunitu zpracování přirozeného jazyka (NLP) je boj proti šíření falešných zpráv a dezinformací. Stávající přístupy k odhalování dezinformací využívají modely neurální sítě, statistické metody, jazykové znaky, strategie ověřování faktů atd. Zdá se však, že hrozba falešných zpráv s příchodem humorných a neobvykle kreativních jazykových modelů sílí. Z příslušné literatury vyplývá, že jedním z hlavních rysů virality falešných zpráv je přítomnost momentu překvapení v příběhu, který přitahuje okamžitou pozornost a vyvolává ve čtenáři silné emocionální podněty. Při této práci tuto myšlenku zužitkujeme a navrhujeme jako dva úkoly související s automatickou detekcí dezinformací detekci textových novinek a předvídání emocí. Pro detekci novot používáme znovu účelové textové obnosy a k třídění falešných informací využíváme modely trénované na rozsáhlých datových souborech obnosů a emocí. Naše výsledky korelují s myšlenkou, protože dosahujeme nejmodernějších výsledků (SOTA) ve čtyřech rozsáhlých souborech dezinformačních dat (7,92%, 1,54%, 17,31% a 8,13% zlepšení z hlediska přesnosti). Doufáme, že naše současná sonda bude motivovat komunitu k dalšímu výzkumu odhalování dezinformací v tomto směru. Zdrojový kód je dostupný na GitHub.2
[ "Rina Kumari", "Nischal Ashok", "Tirthankar Ghosal", "Asif Ekbal" ]
https://www.semanticscholar.org/paper/a524f43d9fbf296bce804555d245a7a91dd58acb/
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
Working Group 1 (What counts as a word?) in Timothy Baldwin, William Croft, Joakim Nivre, and Agata Savary (eds.): Universals of Linguistic Idiosyncrasy in Multilingual Computational Linguistics (Report from Dagstuhl Seminar 21351)
Pracovní skupina 1 (Co se počítá jako slovo?) v Timothy Baldwin, William Croft, Joakim Nivre, and Agata Savary (eds.): Univerzálie jazykových zvláštností v mnohojazyčné počítačové lingvistice (Zpráva z Dagstuhlského semináře 21351)
Computational linguistics builds models that can usefully process and produce language and that can increase our understanding of linguistic phenomena. From the computational perspective, language data are particularly challenging notably due to their variable degree of idiosyncrasy (unexpected properties shared by few peer objects), and the pervasiveness of non-compositional phenomena such as multiword expressions (whose meaning cannot be straightforwardly deduced from the meanings of their components, e.g. red tape, by and large, to pay a visit and to pull one’s leg) and constructions (conventional associations of forms and meanings). Additionally, if models and methods are to be consistent and valid across languages, they have to face specificities inherent either to particular languages, or to various linguistic traditions. These challenges were addressed by the Dagstuhl Seminar 21351 entitled "Universals of Linguistic Idiosyncrasy in Multilingual Computational Linguistics", which took place on 30-31 August 2021. Its main goal was to create synergies between three distinct though partly overlapping communities: experts in typology, in cross-lingual morphosyntactic annotation and in multiword expressions. This report documents the program and the outcomes of the seminar. We present the executive summary of the event, reports from the 3 Working Groups and abstracts of individual talks and open problems presented by the participants.
Počítačová lingvistika vytváří modely, které jsou užitečné při zpracování a generování jazyka a které mohou zlepšit naše porozumění jazykovým jevům. Z pohledu počítačového zpracování představují jazyková data výzvu hlavně kvůli jejich různému stupni idiosynkrazie (nečekané vlastnosti, které má jen několik podobných objektů) a kvůli všudypřítomným nekompozicionálním jevům, jako jsou víceslovné výrazy (jejichž význam nelze jednoduše odvodit z významů jednotlivých částí, např. angl. red tape, by and large, to pay a visit a to pull one’s leg).
[ "Francis Tyers", "Ekaterina Vylomova", "Daniel Zeman", "Tim Zingler" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
MiRANews: Dataset and Benchmarks for Multi-Resource-Assisted News Summarization
MiRANews: Datová sada a benchmarky pro sumarizaci zpráv asistovanou více zdroji
One of the most challenging aspects of current single-document news summarization is that the summary often contains `extrinsic hallucinations', i.e., facts that are not present in the source document, which are often derived via world knowledge. This causes summarisation systems to act more like open-ended language models tending to hallucinate facts that are erroneous. In this paper, we mitigate this problem with the help of multiple supplementary resource documents assisting the task. We present a new dataset MiRANews and benchmark existing summarisation models. In contrast to multi-document summarization, which addresses multiple events from several source documents, we still aim at generating a summary for a single document. We show via data analysis that it's not only the models which are to blame: more than 27% of facts mentioned in the gold summaries of MiRANews are better grounded on assisting documents than in the main source articles. An error analysis of generated summaries from pretrained models fine-tuned on MiRANews reveals that this has an even bigger effects on models: assisted summarisation reduces 55% of hallucinations when compared to single-document summarisation models trained on the main article only.
Jedním z nejobtížnějších aspektů současné sumarizace zpráv z jednoho dokumentu je to, že souhrn často obsahuje "extrinsické halucinace", tj. fakta, která nejsou obsažena ve zdrojovém dokumentu a která jsou často odvozena prostřednictvím znalosti světa. To způsobuje, že se sumarizační systémy chovají spíše jako otevřené jazykové modely se sklonem k halucinacím faktů, které jsou chybné. V tomto článku tento problém zmírňujeme pomocí doplňkových zdrojových dokumentů, které pomáhají při řešení úlohy. Představujeme novou datovou sadu MiRANews a srovnáváme stávající sumarizační modely. Na rozdíl od vícedokumentové sumarizace, která se zabývá více událostmi z několika zdrojových dokumentů, se stále zaměřujeme na generování souhrnu pro jeden dokument. Pomocí analýzy dat ukazujeme, že na vině nejsou jen modely: více než 27 % faktů uvedených ve zlatých souhrnech MiRANews je lépe podloženo v pomocných dokumentech než v hlavních zdrojových článcích. Analýza chyb vygenerovaných souhrnů z předtrénovaných modelů dotrénovaných na MiRANews ukazuje, že to má na modely ještě větší vliv: asistovaná sumarizace snižuje počet halucinací o 55 % ve srovnání s modely pro sumarizaci jednotlivých dokumentů trénovanými pouze na hlavním článku.
[ "Xinnuo Xu", "Ondřej Dušek", "Shashi Narayan", "Verena Rieser", "Ioannis Konstas" ]
https://www.semanticscholar.org/paper/2e4139b609ef300b68aa52ebcf1dd217d71c2f2f/
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
AggGen: Ordering and Aggregating while Generating
AggGen: řazení a agregace během generování
We present AggGen (pronounced ‘again’) a data-to-text model which re-introduces two explicit sentence planning stages into neural data-to-text systems: input ordering and input aggregation. In contrast to previous work using sentence planning, our model is still end-to-end: AggGen performs sentence planning at the same time as generating text by learning latent alignments (via semantic facts) between input representation and target text. Experiments on the WebNLG and E2E challenge data show that by using fact-based alignments our approach is more interpretable, expressive, robust to noise, and easier to control, while retaining the advantages of end-to-end systems in terms of fluency. Our code is available at https://github.com/XinnuoXu/AggGen.
Představujeme model AggGen (vyslovuje se "again"), který do neuronových systémů pro převod dat na text znovu zavádí dvě explicitní fáze plánování vět: řazení a agregaci vstupů. Na rozdíl od předchozích prací využívajících plánování vět je náš model stále end-to-end: AggGen provádí plánování vět současně s generováním textu tím, že se učí latentní zarovnání (prostřednictvím sémantických faktů) mezi vstupní reprezentací a cílovým textem. Experimenty na datech ze soutěží WebNLG a E2E ukazují, že díky použití zarovnání na základě faktů je náš přístup interpretovatelnější, expresivnější, odolnější vůči šumu a snadněji kontrolovatelný, přičemž si zachovává výhody end-to-end systémů z hlediska plynulosti. Náš kód je k dispozici na adrese https://github.com/XinnuoXu/AggGen.
[ "Xinnuo Xu", "Ondřej Dušek", "Verena Rieser", "Ioannis Konstas" ]
https://www.semanticscholar.org/paper/9748c19744ea164af31f354357d7ff1ca47903b9/
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
INNOVATORS at SemEval-2021 Task-11: A Dependency Parsing and BERT-based model for Extracting Contribution Knowledge from Scientific Papers
INNOVATOŘI v SemEval-2021 Úkol-11: Model založený na analýze závislosti a BERT pro získávání poznatků o příspěvku z vědeckých dokumentů
In this work, we describe our system submission to the SemEval 2021 Task 11: NLP Contribution Graph Challenge. We attempt all the three sub-tasks in the challenge and report our results. Subtask 1 aims to identify the contributing sentences in a given publication. Subtask 2 follows from Subtask 1 to extract the scientific term and predicate phrases from the identified contributing sentences. The final Subtask 3 entails extracting triples (subject, predicate, object) from the phrases and categorizing them under one or more defined information units. With the NLPContributionGraph Shared Task, the organizers formalized the building of a scholarly contributions-focused graph over NLP scholarly articles as an automated task. Our approaches include a BERT-based classification model for identifying the contributing sentences in a research publication, a rule-based dependency parsing for phrase extraction, followed by a CNN-based model for information units classification, and a set of rules for triples extraction. The quantitative results show that we obtain the 5th, 5th, and 7th rank respectively in three evaluation phases. We make our codes available at https://github.com/HardikArora17/SemEval-2021-INNOVATORS.
V této práci popisujeme naše systémové předkládání úkolu SemEval 2021 11: NLP Contribution Graph Challenge. Vyzkoušíme všechny tři dílčí úkoly výzvy a podáme zprávu o výsledcích. Cílem dílčího úkolu 1 je identifikovat přispívající věty v dané publikaci. Dílčí úkol č. 2 vyplývá z dílčího úkolu č. 1, jehož cílem je vyjmout vědecký termín a predikovat věty z označených přispívajících vět. Závěrečný dílčí úkol 3 spočívá ve vyjmutí trojic (předmět, predikát, objekt) z frází a jejich kategorizaci do jedné nebo více definovaných informačních jednotek. Sdíleným úkolem NLPContributionGraph organizátoři formalizovali vytvoření odborně zaměřeného grafu nad odbornými články NLP jako automatizovaný úkol. Mezi naše přístupy patří klasifikační model založený na BERT pro identifikaci přispívajících vět ve výzkumné publikaci, analýza závislosti založená na pravidlech pro extrakci frází, následovaná modelem podle CNN pro klasifikaci informačních jednotek a soubor pravidel pro extrakci trojice. Kvantitativní výsledky ukazují, že pátou, pátou a sedmou příčku získáváme ve třech fázích hodnocení. Naše kódy jsou dostupné na https://github.com/HardikArora17/SemEval-2021-INNOVATORS.
[ "Hardik Arora", "Tirthankar Ghosal", "Sandeep Kumar", "Suraj Singh Patwal", "Phil Gooch" ]
https://www.semanticscholar.org/paper/c2231435cbf50b26681ba666c374660c7eaf39f1/
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
NLPHut’s Participation at WAT2021
Účast NLPHut na konferenci WAT2021
This paper provides the description of shared tasks to the WAT 2021 by our team “NLPHut”. We have participated in the English→Hindi Multimodal translation task, English→Malayalam Multimodal translation task, and Indic Multilingual translation task. We have used the state-of-the-art Transformer model with language tags in different settings for the translation task and proposed a novel “region-specific” caption generation approach using a combination of image CNN and LSTM for the Hindi and Malayalam image captioning. Our submission tops in English→Malayalam Multimodal translation task (text-only translation, and Malayalam caption), and ranks secondbest in English→Hindi Multimodal translation task (text-only translation, and Hindi caption). Our submissions have also performed well in the Indic Multilingual translation tasks.
Tento článek obsahuje popis sdílených úloh na WAT 2021 podle našeho tým "NLPHut". Zúčastnili jsme se úlohy multimodálního překladu angličtina→hindština, úlohy multimodálního překladu angličtina→malajština a úlohy vícejazyčného překladu z indických jazyků. Použili jsme nejmodernější model Transformeru s jazykovými značkami v různých nastaveních pro překladatelskou úlohu a navrhli jsme nové "regionálně specifické" generování titulků využívající kombinaci obrazových CNN a LSTM pro hindštinu a malajalamštinu. Náš příspěvek v angličtině→malajálamštině Multimodální překladatelské úlohy (překlad pouze textu a titulků) a na druhém místě v úloze multimodálního překladu angličtina→hindština (překlad pouze textu a titulků). Naše příspěvky si vedly dobře také v indických vícejazyčných překladových úlohách.
[ "Shantipriya Parida", " Subhadarshi Panda", "Ketan Kotwal", "Amulya Ratna Dash", "Satya Ranjan Dash", "Yashvardhan Sharma", "Petr Motlíček", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/408f9acc5409102e7f54c6df1e08dca394c0fee2/
null
null
null
null
null
null
null
null
null
null
null
null
cs
2021
The Translator in the 21st Century (panel discussion)
Překladatel v 21. století (panelová diskuse)
Presentation of the technological possibilities of the translator in the 21st century and projects dedicated to research and evaluation of machine translation at ÚFAL.
Představení technologických možností překladatele ve 21. století a projektů věnujících se výzkumu a hodnocení strojového překladu na ÚFAL.
[ "Věra Kloudová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
cs
2021
Machine translation: a jerk, or a bastard?
Strojový překlad: pašák, nebo prevít?
The lecture focused on the differences between machine and human translation - can we tell at a glance what is translated by a human and what by a machine? Is there only one correct translation? How is the quality of a translation assessed?
Přednáška se zaměřovala na rozdíly mezi strojovým a lidským překladem – poznáme na první pohled, co přeložil člověk a co stroj? Existuje jen jeden správný překlad? Jak se hodnotí kvalita překladu?
[ "Věra Kloudová" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
Detecting Post-edited References and Their Effect on Human Evaluation
Detekce posteditovaných referenčních překladů a jejich vliv na lidské hodnocení překladu
This paper provides a quick overview of possible methods how to detect that reference translations were actually created by post-editing an MT system. Two methods based on automatic metrics are presented: BLEU difference between the suspected MT and some other good MT and BLEU difference using additional references. These two methods revealed a suspicion that the WMT 2020 Czech reference is based on MT. The suspicion was confirmed in a manual analysis by finding concrete proofs of the post-editing procedure in particular sentences. Finally, a typology of post-editing changes is presented where typical errors or changes made by the post-editor or errors adopted from the MT are classified.
Článek poskytuje stručný přehled možných metod, jak zjistit, že referenční překlady byly ve skutečnosti vytvořeny posteditací strojového překladu. Využity byly dvě metody založené na automatických metrikách: 1. rozdíl BLEU mezi podezřelým MT a některým jiným dobrým MT a 2. rozdíl BLEU s využitím dalších referencí. Tyto dvě metody odhalily podezření, že oficiální reference z WMT 2020 je ve skutečnosti posteditovaný strojový překlad. Toto podezření bylo potvrzeno při manuální analýze zjištěním konkretních dokladů o posteditačním postupu. Také byla vytvořena typologie posteditačních změn, kde jsou uvedeny některé chyby nebo změny provedené posteditorem, nebo také chyby převzaté ze strojového překladu.
[ "Věra Kloudová", "Ondřej Bojar", "Martin Popel" ]
https://www.semanticscholar.org/paper/ceaa97f4ee5a84cb321c2789f1b2851e6320ab62/
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
ÚFAL at MultiLexNorm 2021: Improving Multilingual Lexical Normalization by Fine-tuning ByT5
ÚFAL na MultiLexNorm 2021: Zlepšení vícejazyčné lexikální normalizace dotrénováním modelu ByT5
We present the winning entry to the Multilingual Lexical Normalization (MultiLexNorm) shared task at W-NUT 2021 (van der Goot et al., 2021a), which evaluates lexical-normalization systems on 12 social media datasets in 11 languages. We base our solution on a pre-trained byte-level language model, ByT5 (Xue et al., 2021a), which we further pre-train on synthetic data and then fine-tune on authentic normalization data. Our system achieves the best performance by a wide margin in intrinsic evaluation, and also the best performance in extrinsic evaluation through dependency parsing. The source code is released at https://github.com/ufal/multilexnorm2021 and the fine-tuned models at https://huggingface.co/ufal.
Představujeme vítězný systém z Multilingual Lexical Normalization (MultiLexNorm) Shared Task na W-NUT 2021 (van der Goot et al., 2021a), který vyhodnocuje lexikálně-normalizační systémy na 12 datasetech sociálních médií v 11 jazycích. Naše řešení zakládáme na předtrénovaném jazykovém modelu ByT5 (Xue et al., 2021a), který dále trénujeme na syntetických datech a poté dotrénováváme na autentických normalizačních datech. Náš systém dosahuje nejlepších výsledků s velkým náskokem v intrinsic hodnocení a také nejlepších výsledků v extrinsic vyhodnocení prostřednictvím syntaktické analýzy. Zdrojový kód je uvolněn na https://github.com/ufal/multilexnorm2021 a natrénované modely na https://huggingface.co/ufal.
[ "David Samuel", "Milan Straka" ]
https://www.semanticscholar.org/paper/6e2682eb2fbec93b329028b23764c1164e232c41/
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
European Language Grid: A Joint Platform for the European Language Technology Community
Evropská jazyková síť: společná platforma pro komunitu evropských jazykových technologií
Europe is a multilingual society, in which dozens of languages are spoken. The only option to enable and to benefit from multilingualism is through Language Technologies (LT), i.e., Natural Language Processing and Speech Technologies. We describe the European Language Grid (ELG), which is targeted to evolve into the primary platform and marketplace for LT in Europe by providing one umbrella platform for the European LT landscape, including research and industry, enabling all stakeholders to upload, share and distribute their services, products and resources. At the end of our EU project, which will establish a legal entity in 2022, the ELG will provide access to approx. 1300 services for all European languages as well as thousands of data sets.
Evropa je mnohojazyčná společnost, v níž se hovoří desítkami jazyků. Jedinou možností, jak mnohojazyčnost umožnit a využít, jsou jazykové technologie (LT), tj. technologie zpracování přirozeného jazyka a řeči. Popisujeme evropskou jazykovou síť (European Language Grid, ELG), která se má vyvinout v primární platformu a tržiště LT v Evropě tím, že poskytne jednu zastřešující platformu pro evropský LT prostor, včetně výzkumu a průmyslu, která umožní všem zúčastněným stranám nahrávat, sdílet a distribuovat své služby, produkty a zdroje. Na konci projektu, který v roce 2022 vytvoří právní subjekt, poskytne ELG přístup k cca. 1300 služeb pro všechny evropské jazyky a tisíce datových souborů.
[ "Georg Rehm", "Stelios Piperidis", "Kalina Bontcheva", "Jan Hajič", "Victoria Arranz", "Andrejs Vasiljevs", "Gerhard Backfried", "José Manuel Gómez-Pérez", "Ulrich Germann", "Chris Callison-Burch", "Ronald Feldstein", "Stefanie Hegele", "Florian Kintzel", "Katrin Marheinecke", "Julian Moreno-Schneider", "Dimitris Galanis", "Penny Labropoulou", "Miltos Deligiannis", "Katerina Gkirtzou", "Athanasia Kolovou", "Dimitris Gkoumas", "Leon Voukoutis", "Ian Roberts", "Jana Hamrlová", "Dušan Variš", "Lukáš Kačena", "Khalid Choukri", "Valérie Mapelli", "Mickaël Rigault", "Julija Melnika", "Miro Jánošík", "Katja Prinz", "Andres Garcia-Silva", "Cristian Berrio", "Ondřej Klejch", "Steve Renals" ]
https://www.semanticscholar.org/paper/49343df9383e9f4f59e56b307277fc4ff75700da/
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
Lost in Interpreting: Speech Translation from Source or Interpreter?
Ztraceno v tlumočení: Překládat řeč z originálu nebo z tlumočení?
Interpreters facilitate multi-lingual meetings but the affordable set of languages is often smaller than what is needed. Automatic simultaneous speech translation can extend the set of provided languages. We investigate if such an automatic system should rather follow the original speaker, or an interpreter to achieve better translation quality at the cost of increased delay. To answer the question, we release Europarl Simultaneous Interpreting Corpus (ESIC), 10 hours of recordings and transcripts of European Parliament speeches in English, with simultaneous interpreting into Czech and German. We evaluate quality and latency of speaker-based and interpreter-based spoken translation systems from English to Czech. We study the differences in implicit simplification and summarization of the human interpreter compared to a machine translation system trained to shorten the output to some extent. Finally, we perform human evaluation to measure information loss of each of these approaches.
Abstrakt je pouze v angličtině. Interpreters facilitate multi-lingual meetings but the affordable set of languages is often smaller than what is needed. Automatic simultaneous speech translation can extend the set of provided languages. We investigate if such an automatic system should rather follow the original speaker, or an interpreter to achieve better translation quality at the cost of increased delay. To answer the question, we release Europarl Simultaneous Interpreting Corpus (ESIC), 10 hours of recordings and transcripts of European Parliament speeches in English, with simultaneous interpreting into Czech and German. We evaluate quality and latency of speaker-based and interpreter-based spoken translation systems from English to Czech. We study the differences in implicit simplification and summarization of the human interpreter compared to a machine translation system trained to shorten the output to some extent. Finally, we perform human evaluation to measure information loss of each of these approaches.
[ "Dominik Macháček", "Matúš Žilinec", "Ondřej Bojar" ]
https://www.semanticscholar.org/paper/302b03cc77ed518405161a22beac71d1ac9bb232/
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
CUNI-NU System at Biocreative VIII Track 5: Multi-label Topic Classification of COVID-19 Articles using Dual Attention with SPECTRE
Systém UK-NU v soutěži Biocreative VIII Track 5: Víceznačková klasifikace tématu v článcích o COVID-19 s využitím dvojité attention se SPECTRE
Subject-Article classification is an important problem in Scholarly Document Processing to address the huge information overload in the scholarly space. This paper describes the approach of our team CUNI-NU for the Biocreative VII-Track 5 challenge: Litcovid multi-label topic classification for COVID-19 literature [1]. The concerned task aims to automate the manual curation of biomedical articles into seven distinct labels, specifically for the LitCovid data repository. Our best performing model makes use of the SPECTER [2] document embeddings for representing abstract, and titles of scientific articles followed by a Dual-Attention [3] mechanism to perform the multi-label categorization. We achieve significantly better performance than the baseline methods. We make our code available at https://github.com/Nid989/ CUNI-NU-Biocreative-Track5
Klasifikace předmětných článků je důležitým problémem Schosimilar Document Processing to address the huge information overload in the scholarly space. Tento dokument popisuje přístup našeho týmu CUNI-NU pro Biocreative VII-Track 5 challenge: Litcovid multilabel topic classification for COVID-19 literatura [1]. Cílem dotčeného úkolu je automatizovat manuální nakládání s biomedicínskými předměty do sedmi různých značek, konkrétně pro datové úložiště LitCovid. Naše nejlepší model používá dokument SPECTER [2] zápatí pro reprezentaci abstraktních, a tituly vědeckých články následované mechanismem Dual-Attention [3] do perform multilabel kategorizace. Dosáhli jsme významného lepší výkon než základní metody. Děláme náš kód dostupný na https://github.com/Nid989/ CUNI-NU-Biocreative-Track5
[ "Aakash Bhatnagar", "Nidhir Bhavsar", "Muskaan Singh", "Tirthankar Ghosal" ]
null
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
Towards a Versatile Intelligent Conversational Agent as Personal Assistant for Migrants
Směrem k všestrannému inteligentnímu konverzačnímu agentovi jako osobnímu asistentovi pro migranty
We present a knowledge-driven multilingual conversational agent (referred to as ``MyWelcome Agent'') that acts as personal assistant for migrants in the contexts of their reception and integration. In order to also account for tasks that go beyond communication and require advanced service coordination skills, the architecture of the proposed platform separates the dialogue management service from the agent behavior including the service selection and planning. The involvement of genuine agent planning strategies in the design of personal assistants, which tend to be limited to dialogue management tasks, makes the proposed agent significantly more versatile and intelligent. To ensure high quality verbal interaction, we draw upon state-of-the-art multilingual spoken language understanding and generation technologies.
Článek popisuje znalostního vícejazyčného konverzačního agenta "MyWelcome Agent", který funguje jako osobní asistent migrantů v kontextu jejich přijímání a integrace.
[ "Leo Wanner", "Matthias Klusch", "Athanasios Mavropoulos", "Emmanuel Jamin", "Victor Martin Puchades", "Gerard Casamayor", "Jan Černocký", "Steffi Davey", "Mónica Domínguez", "Ekaterina Egorova", "Jens Grivolla", "Gloria Elena Jaramillo Rojas", "Anastasios Karakostas", "Dimos Ntioudis", "Pavel Pecina", "Oleksander Sobko", "Stefanos Vrochidis", "Lena Wertmann" ]
https://www.semanticscholar.org/paper/d6d3b0a8fdc0b95e64d4debd8f525db229df0395/
null
null
null
null
null
null
null
null
null
null
null
null
en
2021
Using a Parallel Corpus to Adapt the Flesch Reading Ease Formula to Czech
Použití paralelního korpusu pro adaptaci vzorce Flesch Reading Ease na češtinu
Text readability metrics assess how much effort a reader must put into comprehending a given text. They are e.g., used to choose appropriate readings for different student proficiency levels, or to make sure that crucial information is efficiently conveyed (e.g., in an emergency). Flesch Reading Ease is such a globally used formula that it is even integrated into the MS Word Processor. However, its constants are language dependent. The original formula was created for English. So far it has been adapted to several European languages, Bangla, and Hindi. This paper describes the Czech adaptation, with the language-dependent constants optimized by a machine-learning algorithm working on parallel corpora of Czech with English, Russian, Italian, and French.
Metriky srozumitelnosti textu hodnotí, kolik úsilí musí čtenář vynaložit na porozumění danému textu. Používají se např. K výběru vhodných materiálů pro četbu pro různé úrovně znalostí studentů nebo k zajištění efektivního přenosu důležitých informací (např. V případě nouze). Flesch Reading Ease je natolik globálně používaný vzorec, že je dokonce integrován do textového procesoru MS. Jeho konstanty jsou však závislé na jazyce. Původní vzorec byl vytvořen pro angličtinu. Doposud byl přizpůsoben několika evropským jazykům, bengálštině a hindštině. Tento článek popisuje českou adaptaci, přičemž jazykově závislé konstanty jsou optimalizovány algoritmem strojového učení pracujícím na paralelních korpusech češtiny s angličtinou, ruštinou, italštinou a francouzštinou.
[ "Klára Bendová" ]
https://www.semanticscholar.org/paper/5381698b305f9ec17234a870339856326c9165e0/
null
null
null
null
null
null
null
null
null
null
null
null