|
--- |
|
license: apache-2.0 |
|
--- |
|
|
|
# Ninja-V2-7B.gguf |
|
このモデルは、ベクトルマージなどを用い作成された高性能ベースモデルです。 |
|
用途はチャットのみならず、文章創作など幅広いタスクに対応できます。 |
|
GGUFによる8,4ビット量子化を行いました。 |
|
Ninja-V2-7Bはこちら→https://huggingface.co/Local-Novel-LLM-project/Ninja-V2-7B |
|
|
|
このモデルは、ローカルLLMに向き合う会企画のLocalAIハッカソンの高性能GPUサーバーの助けを借りて作成されました。 |
|
|
|
関係者の皆様に感謝申し上げます。 |
|
|
|
# 作成方法 |
|
複数のモデルのチャットベクター |
|
モデルの単純な線形マージ |
|
|
|
# プロンプトテンプレート |
|
必須ではありませんが、Vicuna-1.1テンプレートを使用することができます。 |
|
単純な文章生成においては推奨のテンプレートはありません。 |
|
|
|
# システムプロンプト |
|
|
|
- BAD: あなたは○○として振る舞います |
|
- GOOD: あなたは○○です |
|
|
|
- BAD: あなたは○○ができます |
|
- GOOD: あなたは○○をします |
|
|
|
# 制限 |
|
|
|
Apache-2.0ライセンスに従い使用してください。 |
|
|