zenz-v2
zenz-v2はGPT-2アーキテクチャに基づくかな漢字変換タスクに特化した言語モデルです。ニューラルかな漢字変換システム「Zenzai」で利用することを想定しています。
- 90Mパラメタ
- 文字単位+バイト単位BPEトークナイザー
- かな漢字変換タスクにおいて貪欲法で高い性能
- 文脈を考慮した変換で高い性能を発揮
zenz-v2はzenz-v1を拡張し、素の変換性能を向上させながら新たな機能を追加しました。
Model Details
Model Description
CC-BY-SA 4.0で提供されているku-nlp/gpt2-small-japanese-charを基盤モデルとして利用しています。
本モデルはCC-BY-SA 4.0で提供します。
- Developed by: Keita Miwa (𝕏)
- Model type: GPT-2
- Language(s) (NLP): Japanese
- License: CC-BY-SA 4.0
- Finetuned from model: ku-nlp/gpt2-small-japanese-char
Model Sources
本モデルはZenzai(AzooKeyKanaKanjiConverter)と共に利用することを想定して構築しています。
Acknowledgements
以下のライブラリやツール、言語資源を活用して本モデルを構築しました。
- MeCab (https://taku910.github.io/mecab/)
- ipadic-NEologd (https://github.com/neologd/mecab-ipadic-neologd)
- torch (https://pypi.org/project/torch/)
- transformers (https://pypi.org/project/transformers/)
- datasets (https://pypi.org/project/datasets/)
- jaconv (https://pypi.org/project/jaconv/)
- llama.cpp (https://github.com/ggerganov/llama.cpp)
- Downloads last month
- 8