GGUF
Inference Endpoints
Ninja-V2-7B-GGUF / README.md
akineAItech's picture
Update README.md
7400f83 verified
|
raw
history blame
1.21 kB
metadata
license: apache-2.0

Ninja-V2-7B.gguf

このモデルは、ベクトルマージなどを用い作成された高性能ベースモデルです。 用途はチャットのみならず、文章創作など幅広いタスクに対応できます。 GGUFによる8,4ビット量子化を行いました。 Ninja-V2-7Bはこちら→https://huggingface.co/Local-Novel-LLM-project/Ninja-V2-7B

このモデルは、ローカルLLMに向き合う会企画のLocalAIハッカソンの高性能GPUサーバーの助けを借りて作成されました。

関係者の皆様に感謝申し上げます。

作成方法

複数のモデルのチャットベクター モデルの単純な線形マージ

プロンプトテンプレート

必須ではありませんが、Vicuna-1.1テンプレートを使用することができます。 単純な文章生成においては推奨のテンプレートはありません。

システムプロンプト

  • BAD: あなたは○○として振る舞います

  • GOOD: あなたは○○です

  • BAD: あなたは○○ができます

  • GOOD: あなたは○○をします

制限

Apache-2.0ライセンスに従い使用してください。