File size: 3,271 Bytes
f425561 0b414fb 6cc5d08 f698469 6cc5d08 f425561 f698469 0b414fb f698469 f92ef84 f698469 0b414fb 5ca54d6 31680e9 5ca54d6 31680e9 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 |
---
base_model:
- soramikaduki/Antler-RP-ja-westlake-chatvector
- soramikaduki/Starling-RP-ja-westlake-chatvector
library_name: transformers
tags:
- mergekit
- merge
- not-for-all-audiences
license: apache-2.0
language:
- ja
---
# StarAntler-RP-WestLake-chatvector
This is a merge of pre-trained language models created using [mergekit](https://github.com/cg123/mergekit).
このモデルはChatVector手法を用いてNSFW手法を強化したモデル2つをマージさせたモデルです。
まず、1つ目のモデルはChatVector手法を使用して、Aratrakoさん制作の[Aratako/Antler-7B-RP](https://huggingface.co/Aratako/Antler-7B-RP)を[senseable/WestLake-7B-v2](https://huggingface.co/senseable/WestLake-7B-v2)を用いてNSFW能力を強化しています。
2つ目のモデルも同様にAratrakoさん制作の[Japanese-Starling-ChatV-7B-RP ](https://huggingface.co/Aratako/Japanese-Starling-ChatV-7B-RP)を[senseable/WestLake-7B-v2](https://huggingface.co/senseable/WestLake-7B-v2)を用いてNSFW能力を強化しています。
これら2つのモデルを同等の重みでマージしたモデルです。マージの詳細は以下の通りです。
## Merge Details
### Merge Method
This model was merged using the [DARE](https://arxiv.org/abs/2311.03099) [TIES](https://arxiv.org/abs/2306.01708) merge method using [soramikaduki/Antler-RP-ja-westlake-chatvector](https://huggingface.co/soramikaduki/Antler-RP-ja-westlake-chatvector) as a base.
### Models Merged
The following models were included in the merge:
* [soramikaduki/Starling-RP-ja-westlake-chatvector](https://huggingface.co/soramikaduki/Starling-RP-ja-westlake-chatvector)
### Configuration
The following YAML configuration was used to produce this model:
```yaml
models:
- model: soramikaduki/Antler-RP-ja-westlake-chatvector
parameters:
density: 0.5
weight:
- filter: mlp
value: 0.5
- value: 0.5
# No parameters necessary for base model
- model: soramikaduki/Starling-RP-ja-westlake-chatvector
parameters:
density: 0.5
weight:
- filter: mlp
value: 0.5
- value: 0.5
merge_method: dare_ties
base_model: soramikaduki/Antler-RP-ja-westlake-chatvector
parameters:
int8_mask: true
dtype: bfloat16
tokenizer_source: union
custom_methods:
model.embed_tokens:
method: tokenizer_permutation
parameters:
weight:
soramikaduki/Antler-RP-ja-westlake-chatvector: 0.5
soramikaduki/Starling-RP-ja-westlake-chatvector: 0.5
lm_head:
method: tokenizer_permutation
parameters:
weight:
soramikaduki/Antler-RP-ja-westlake-chatvector: 0.5
soramikaduki/Starling-RP-ja-westlake-chatvector: 0.5
```
### Performance
<table>
<tr>
<th>Model</th>
<th>StarAntler-RP-WestLake-chatvector (This model)</th>
</tr>
<tr>
<td>Parameters</td>
<td>7B(Mistral)</td>
</tr>
<tr>
<td>ELYZAtasks100<br>average score</td>
<td>3.16</td>
</tr>
</table>
Scores on "<a href="https://huggingface.co/datasets/elyza/ELYZA-tasks-100">ELYZA-tasks-100</a>"
このスコアはinstruction-tuningを行った日本語モデルのベンチマーク「ELYZA-tasks-100」を使い、gpt-4-0125-previewにより評価させたものです。 |