GGUF
Inference Endpoints
Ninja-V2-7B-GGUF / README.md
akineAItech's picture
Update README.md
b563773 verified
---
license: apache-2.0
---
# Ninja-V2-7B.gguf
このモデルは、ベクトルマージなどを用い作成された高性能ベースモデルです。
用途はチャットのみならず、文章創作など幅広いタスクに対応できます。
GGUFによる8,4ビット量子化を行いました。
Ninja-V2-7Bはこちら→https://huggingface.co/Local-Novel-LLM-project/Ninja-V2-7B
このモデルは、ローカルLLMに向き合う会企画のLocalAIハッカソンの高性能GPUサーバーの助けを借りて作成されました。
関係者の皆様に感謝申し上げます。
# 作成方法
複数のモデルのチャットベクター
モデルの単純な線形マージ
# プロンプトテンプレート
必須ではありませんが、Vicuna-1.1テンプレートを使用することができます。
単純な文章生成においては推奨のテンプレートはありません。
# システムプロンプト
- BAD: あなたは○○として振る舞います
- GOOD: あなたは○○です
- BAD: あなたは○○ができます
- GOOD: あなたは○○をします
# 制限
Apache-2.0ライセンスに従い使用してください。