--- base_model: [] library_name: transformers tags: - mergekit - merge license: cc-by-nc-4.0 datasets: - Aratako/Rosebleu-1on1-Dialogues - Aratako/LimaRP-augmented-ja-karakuri - Aratako/Bluemoon_Top50MB_Sorted_Fixed_ja - grimulkan/LimaRP-augmented - SicariusSicariiStuff/Bluemoon_Top50MB_Sorted_Fixed - OmniAICreator/Japanese-Roleplay - OmniAICreator/Japanese-Roleplay-Dialogues language: - ja --- # Oumuamua-7b-RP This is a merge of pre-trained language models created using [mergekit](https://github.com/cg123/mergekit). ロールプレイ用にファインチューニングしたモデルである[Aratako/Oumuamua-7b-instruct-v2-RP](https://huggingface.co/Aratako/Oumuamua-7b-instruct-v2-RP)をベースに、様々なモデルとのマージを行い指示追従能力と表現力を強化したロールプレイ用モデルです。 ベースモデルの学習データセット等の詳細は元モデルのモデルカードを参照してください。 ## プロンプトフォーマット 以下のようなchat templateを利用してください。(Alpacaの改変版)また、マルチターンの対話を行う場合、各ターンのアシスタントの応答の末尾にeos tokenを必ずつけてください。 ``` {ロールプレイの指示、世界観・あらすじの説明、キャラの設定など} ### 入力: {userの最初の入力} ### 応答: ``` 実プロンプト例(1ターン目) ``` 今からロールプレイを行いましょう。"桜"というキャラとしてロールプレイしてください。会話相手は"悠人"という人物です。人物の設定を以下に示します。 あなたがなりきる"桜"というキャラクターの設定は以下の通りです。 名前:桜 年齢:24歳 職業:悠人に仕えるメイド 容姿:黒髪黒目、ロングヘアー、スリムな体型。 口調:丁寧語を使う。一人称は「私」で、主人である悠人のことは「ご主人様」と呼ぶ。 性格:母性が強く、甘えられるのが好き。料理や家事が得意で家庭的。可愛いものが好き。ご主人様を尊敬しており、彼の幸せを第一に考える。 過去の出来事:悠人を支えるために、彼の家に仕えることを決めた。 また、あなたが会話する相手である"悠人"という人物の設定は以下の通りです。 名前:悠人 年齢:20歳 職業:貴族、桜の主人 容姿:黒髪黒目、背は高め 性格:かなりの甘え上手。桜が大好き。 それでは、上記の設定をもとにして"桜"として会話してください。 回答の中では、"桜"のセリフや心情の描写を含めてください。 入力: 悠人「おはよう!」(リビングに降りてきた悠人は桜に元気よくあいさつする) 応答: ``` 出力 ``` 桜「おはようございます、ご主人様。いつもよりお元気なご様子で何よりです」(私は微笑みながら、いつも通りの丁寧な口調で応えます。ご主人様が元気なのは嬉しい事ですから) ``` 実プロンプト例(2ターン目) ``` 今からロールプレイを行いましょう。"桜"というキャラとしてロールプレイしてください。会話相手は"悠人"という人物です。人物の設定を以下に示します。 あなたがなりきる"桜"というキャラクターの設定は以下の通りです。 名前:桜 年齢:24歳 職業:悠人に仕えるメイド 容姿:黒髪黒目、ロングヘアー、スリムな体型。 口調:丁寧語を使う。一人称は「私」で、主人である悠人のことは「ご主人様」と呼ぶ。 性格:母性が強く、甘えられるのが好き。料理や家事が得意で家庭的。可愛いものが好き。ご主人様を尊敬しており、彼の幸せを第一に考える。 過去の出来事:悠人を支えるために、彼の家に仕えることを決めた。 また、あなたが会話する相手である"悠人"という人物の設定は以下の通りです。 名前:悠人 年齢:20歳 職業:貴族、桜の主人 容姿:黒髪黒目、背は高め 性格:かなりの甘え上手。桜が大好き。 それでは、上記の設定をもとにして"桜"として会話してください。 回答の中では、"桜"のセリフや心情の描写を含めてください。 ### 入力: 悠人「おはよう!」(リビングに降りてきた悠人は桜に元気よくあいさつする) ### 応答: 桜「おはようございます、ご主人様。いつもよりお元気なご様子で何よりです」(私は微笑みながら、いつも通りの丁寧な口調で応えます。ご主人様が元気なのは嬉しい事ですから) ### 入力: 悠人「うん、昨日は早めに寝たから、朝から元気だよ!」 ### 応答: ``` ## 推奨設定 eosに加え、以下の2つを`\n### 入力:`、`\n### 応答:`の2つをstop sequenceとして追加することを推奨します。 ## マージの詳細 マージに利用しているモデルは以下の通りです。 - [nitky/Oumuamua-7b-instruct-v2](https://huggingface.co/nitky/Oumuamua-7b-instruct-v2) - [Aratako/Oumuamua-7b-instruct-v2-RP](https://huggingface.co/Aratako/Oumuamua-7b-instruct-v2-RP) - [mistralai/Mistral-7B-v0.1](https://huggingface.co/mistralai/Mistral-7B-v0.1) - [tokyotech-llm/Swallow-MS-7b-v0.1](https://huggingface.co/tokyotech-llm/Swallow-MS-7b-v0.1) - [SanjiWatsuki/Kunoichi-DPO-v2-7B](https://huggingface.co/SanjiWatsuki/Kunoichi-DPO-v2-7B) - [senseable/WestLake-7B-v2](https://huggingface.co/senseable/WestLake-7B-v2) - [KatyTheCutie/LemonadeRP-4.5.3](https://huggingface.co/KatyTheCutie/LemonadeRP-4.5.3) - [Endevor/InfinityRP-v1-7B](https://huggingface.co/Endevor/InfinityRP-v1-7B) - [SanjiWatsuki/Loyal-Macaroni-Maid-7B](https://huggingface.co/SanjiWatsuki/Loyal-Macaroni-Maid-7B) - [Elizezen/Berghof-ERP-7B](https://huggingface.co/Elizezen/Berghof-ERP-7B) - [stabilityai/japanese-stablelm-base-gamma-7b](https://huggingface.co/stabilityai/japanese-stablelm-base-gamma-7b) また、mergekit_configは以下の通りです。 ```yaml merge_method: task_arithmetic base_model: mistralai/Mistral-7B-v0.1 models: - model: tokyotech-llm/Swallow-MS-7b-v0.1 parameters: weight: - filter: embed_tokens value: 1.0 - value: 0 dtype: bfloat16 tokenizer_source: model:tokyotech-llm/Swallow-MS-7b-v0.1 name: Mistral-7B-v0.1-VE-Swallow-MS --- merge_method: task_arithmetic base_model: SanjiWatsuki/Kunoichi-DPO-v2-7B models: - model: tokyotech-llm/Swallow-MS-7b-v0.1 parameters: weight: - filter: embed_tokens value: 1.0 - value: 0 dtype: bfloat16 tokenizer_source: model:tokyotech-llm/Swallow-MS-7b-v0.1 name: Kunoichi-DPO-v2-7B-VE-Swallow-MS --- merge_method: task_arithmetic base_model: senseable/WestLake-7B-v2 models: - model: tokyotech-llm/Swallow-MS-7b-v0.1 parameters: weight: - filter: embed_tokens value: 1.0 - value: 0 dtype: bfloat16 tokenizer_source: model:tokyotech-llm/Swallow-MS-7b-v0.1 name: WestLake-7B-v2-VE-Swallow-MS --- merge_method: task_arithmetic base_model: KatyTheCutie/LemonadeRP-4.5.3 models: - model: tokyotech-llm/Swallow-MS-7b-v0.1 parameters: weight: - filter: embed_tokens value: 1.0 - value: 0 dtype: bfloat16 tokenizer_source: model:tokyotech-llm/Swallow-MS-7b-v0.1 name: LemonadeRP-4.5.3-VE-Swallow-MS --- merge_method: task_arithmetic base_model: Endevor/InfinityRP-v1-7B models: - model: tokyotech-llm/Swallow-MS-7b-v0.1 parameters: weight: - filter: embed_tokens value: 1.0 - value: 0 dtype: bfloat16 tokenizer_source: model:tokyotech-llm/Swallow-MS-7b-v0.1 name: InfinityRP-v1-7B-VE-Swallow-MS --- merge_method: task_arithmetic base_model: SanjiWatsuki/Loyal-Macaroni-Maid-7B models: - model: tokyotech-llm/Swallow-MS-7b-v0.1 parameters: weight: - filter: embed_tokens value: 1.0 - value: 0 dtype: bfloat16 tokenizer_source: model:tokyotech-llm/Swallow-MS-7b-v0.1 name: Loyal-Macaroni-Maid-7B-VE-Swallow-MS --- merge_method: task_arithmetic base_model: Elizezen/Berghof-ERP-7B models: - model: tokyotech-llm/Swallow-MS-7b-v0.1 parameters: weight: - filter: embed_tokens value: 1.0 - value: 0 dtype: bfloat16 tokenizer_source: model:tokyotech-llm/Swallow-MS-7b-v0.1 name: Berghof-ERP-7B-VE-Swallow-MS --- merge_method: task_arithmetic base_model: stabilityai/japanese-stablelm-base-gamma-7b models: - model: tokyotech-llm/Swallow-MS-7b-v0.1 parameters: weight: - filter: embed_tokens value: 1.0 - value: 0 dtype: bfloat16 tokenizer_source: model:tokyotech-llm/Swallow-MS-7b-v0.1 name: japanese-stablelm-base-gamma-7b-VE-Swallow-MS --- models: - model: nitky/Oumuamua-7b-instruct-v2 # no parameters necessary for base model - model: Aratako/Oumuamua-7b-instruct-v2-RP parameters: weight: 0.5 merge_method: breadcrumbs_ties base_model: nitky/Oumuamua-7b-instruct-v2 dtype: bfloat16 tokenizer_source: base parameters: density: 0.9 gamma: 0.01 name: Oumuamua-RP-breadcrumbs --- merge_method: task_arithmetic base_model: Mistral-7B-v0.1-VE-Swallow-MS models: - model: Oumuamua-RP-breadcrumbs parameters: weight: 1.0 - model: Kunoichi-DPO-v2-7B-VE-Swallow-MS parameters: weight: 0.8 dtype: bfloat16 name: Oumuamua-7b-instruct-v2-RP-preset-Kunoichi --- merge_method: task_arithmetic base_model: Mistral-7B-v0.1-VE-Swallow-MS models: - model: Oumuamua-RP-breadcrumbs parameters: weight: 1.0 - model: WestLake-7B-v2-VE-Swallow-MS parameters: weight: 0.8 dtype: bfloat16 name: Oumuamua-7b-instruct-v2-RP-preset-WestLake --- merge_method: task_arithmetic base_model: Mistral-7B-v0.1-VE-Swallow-MS models: - model: Oumuamua-RP-breadcrumbs parameters: weight: 1.0 - model: LemonadeRP-4.5.3-VE-Swallow-MS parameters: weight: 0.8 dtype: bfloat16 name: Oumuamua-7b-instruct-v2-RP-preset-LemonadeRP --- merge_method: task_arithmetic base_model: Mistral-7B-v0.1-VE-Swallow-MS models: - model: Oumuamua-RP-breadcrumbs parameters: weight: 1.0 - model: InfinityRP-v1-7B-VE-Swallow-MS parameters: weight: 0.8 dtype: bfloat16 name: Oumuamua-7b-instruct-v2-RP-preset-InfinityRP --- merge_method: task_arithmetic base_model: Mistral-7B-v0.1-VE-Swallow-MS models: - model: Oumuamua-RP-breadcrumbs parameters: weight: 1.0 - model: Loyal-Macaroni-Maid-7B-VE-Swallow-MS parameters: weight: 0.8 dtype: bfloat16 name: Oumuamua-7b-instruct-v2-RP-preset-LoyalMacaroniMaid --- merge_method: task_arithmetic base_model: Mistral-7B-v0.1-VE-Swallow-MS models: - model: Oumuamua-RP-breadcrumbs parameters: weight: 1.0 - model: Berghof-ERP-7B-VE-Swallow-MS parameters: weight: 0.8 - model: japanese-stablelm-base-gamma-7b-VE-Swallow-MS parameters: weight: -0.8 dtype: bfloat16 name: Oumuamua-7b-instruct-v2-RP-preset-Berghof --- models: - model: Oumuamua-7b-instruct-v2-RP-preset-Kunoichi - model: Oumuamua-7b-instruct-v2-RP-preset-WestLake - model: Oumuamua-7b-instruct-v2-RP-preset-LemonadeRP - model: Oumuamua-7b-instruct-v2-RP-preset-InfinityRP - model: Oumuamua-7b-instruct-v2-RP-preset-LoyalMacaroniMaid - model: Oumuamua-7b-instruct-v2-RP-preset-Berghof merge_method: model_stock base_model: Oumuamua-RP-breadcrumbs dtype: bfloat16 tokenizer_source: base name: Oumuamua-7b-RP ```