huggingfaceのモデルカード上にデータセットを記載する
Browse filesこんにちは!Chatbot Arena Conversations JA (calm2) Datasetの作者です。
huggingfaceのモデルカード上にこちらのデータセットを記載していただけると、Dataset側からこのLoraモデルへのリンクが張られるようになります(画像参照)。
そうするとデータセットを見に来た方がこのLoraモデルを見つけられるようになりますので、よろしければご検討いただけますと幸いです。
![image.png](https://cdn-uploads.huggingface.co/production/uploads/62d0a64e6a61a88ea0d88e63/q_vQg4suk3g49r-sM1sfZ.png)
README.md
CHANGED
@@ -1,5 +1,7 @@
|
|
1 |
---
|
2 |
license: cc-by-4.0
|
|
|
|
|
3 |
---
|
4 |
|
5 |
Mixtral8X7B Instructの日本語生成を安定させるためのLoraです。
|
@@ -73,4 +75,4 @@ num_fewshot: 2, batch_size: 1
|
|
73 |
Lora学習時のcontext長は4096tokenまでですが、4k token以上の出力も可能です。
|
74 |
|
75 |
注:bf16での使用を想定しています。
|
76 |
-
量子化推論する場合は、bf16でモデルを読み込んだ状態でLora適応またはマージ、その後に量子化してください。
|
|
|
1 |
---
|
2 |
license: cc-by-4.0
|
3 |
+
datasets:
|
4 |
+
- cyberagent/chatbot-arena-ja-calm2-7b-chat-experimental
|
5 |
---
|
6 |
|
7 |
Mixtral8X7B Instructの日本語生成を安定させるためのLoraです。
|
|
|
75 |
Lora学習時のcontext長は4096tokenまでですが、4k token以上の出力も可能です。
|
76 |
|
77 |
注:bf16での使用を想定しています。
|
78 |
+
量子化推論する場合は、bf16でモデルを読み込んだ状態でLora適応またはマージ、その後に量子化してください。
|