File size: 702 Bytes
a3e0cd8
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
title: GPT2 # will be used as tab title and for the link.
name: huggingface/gpt2 # path to model
description: >
    Dies ist ein Vorläufermodell von 
    GPT-3.5, auf dem ChatGPT beruht. Das Modell vervollständigt eingegebene Texte, in dem
    es immer ein wahrscheinliches nächstes Wort voraussagt. Allerdings hat es auch einen
    kleinen Zufallsfaktor, damit der gleiche Input nicht immer das gleiche Resultat liefern.
    Das hier vorgestellte deutschsprachige GPT-2 Modell hat 124 Millionen Parameter, ist also
    1400x kleiner als ChatGPT - und somit auch erkennbar schlechter in der Textgenerierung.
examples:
    - Paris is the capital of
    - Auf Deutsch funktioniert das Modell deutlich