nlp-cirlce-demo / resources /interfaces /gbert_interface.yml
JOELDSL's picture
feature/refactoring-to-config-yamls (#1)
79d67e0
raw
history blame
No virus
717 Bytes
title: German BERT
name: huggingface/deepset/gbert-large
description: >
Hier zeigen wir ein Vergleichsmodell, welches ebenfalls maskierte Wörter (hier mit dem Stichwort [Mask]) zu erraten
versucht. Dieses Modell wurde allerdings nicht auf rechtliche Sprache spezialisiert, weshalb die prognostizierten
Wörter deutlich weniger spezifisch sind. Beide Modelle haben 354 Millionen Parameter.
examples:
# This is how we can do nested lists
- >
Die Beschwerdeführerin rügt sodann eine Verletzung des Verhältnismässigkeitsprinzips. Sie ist der
Auffassung, dass die Publikationstätigkeit der WEKO den Grundsatz der [MASK] gemäss Art. 5 Abs. 2
und Art. 36 BV wahren müsse.