File size: 2,082 Bytes
67c9cff 9e3c5c2 67c9cff 891744c 67c9cff 891744c 67c9cff 891744c 67c9cff |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 |
---
license: mit
tags:
- generated_from_trainer
widget:
- text: Welche Ausbildung hatte Angela Merkel?
context: Angela Dorothea Merkel (geb. Kasner; * 17. Juli 1954 in Hamburg) ist eine
deutsche Politikerin (CDU). Sie war vom 22. November 2005 bis zum 8. Dezember
2021 Bundeskanzlerin der Bundesrepublik Deutschland. Sie ist die achte Person,
zugleich erste Frau, erste Person aus Ostdeutschland und erste Person, die nach
der Gründung der Bundesrepublik geboren ist, die in dieses Amt gewählt wurde.
Von April 2000 bis Dezember 2018 war sie Bundesvorsitzende der CDU. Merkel wuchs
in der DDR auf und war dort als Physikerin am Zentralinstitut für Physikalische
Chemie tätig. Erstmals politisch aktiv wurde sie während der Wendezeit in der
Partei Demokratischer Aufbruch, die sich 1990 der CDU anschloss. In der ersten
und gleichzeitig letzten demokratisch gewählten Regierung der DDR übte sie das
Amt der stellvertretenden Regierungssprecherin aus.
base_model: xlm-roberta-base
model-index:
- name: xlmr-base-texas-squad-de
results: []
---
# TExAS-SQuAD-de
This model is a fine-tuned version of [xlm-roberta-base](https://huggingface.co/xlm-roberta-base) on the TExAS-SQuAD-de dataset.
It achieves the following results on the evaluation set:
- Exact match: 61.45%
- F1-score: 66.12%
## Training procedure
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 32
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 3
### Training results
| Training Loss | Epoch | Step | Validation Loss |
|:-------------:|:-----:|:-----:|:---------------:|
| 1.8084 | 1.0 | 4233 | 1.5897 |
| 1.5696 | 2.0 | 8466 | 1.5478 |
| 1.4196 | 3.0 | 12699 | 1.5754 |
### Framework versions
- Transformers 4.12.2
- Pytorch 1.8.1+cu101
- Datasets 1.12.1
- Tokenizers 0.10.3
|