gpt2-small-cs
Small version of GPT2 model (4 layers, 8 attention heads, hid. size 512) pretrained from 115 GB of cleaned Czech text (mainly from Common Crawl project).
Usage
from transformers import pipeline, set_seed
generator = pipeline('text-generation', model='fav-kky/gpt2-small-cs')
set_seed(42)
generator("Lidstvo bude brzy", max_length=30, num_return_sequences=2)
[{'generated_text': 'Lidstvo bude brzy seskupeno do osmi skupin, které budou rozděleny do čtyř skupin. V čele budou čtyři prezidenti, mezi nimi například prezidenti'},
{'generated_text': 'Lidstvo bude brzy potřebovat čas na budování infrastruktury, řekl na tiskové konferenci ředitel Národní síťové informační agentury Jiří Drahoš. "Napojení, které bude'}]
- Downloads last month
- 496
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.