Update README.md
Browse files
README.md
CHANGED
@@ -6,31 +6,70 @@ language:
|
|
6 |
pipeline_tag: text-generation
|
7 |
---
|
8 |
|
9 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
10 |
|
11 |
# 介绍
|
12 |
|
13 |
-
基于LLaMA2-13B和
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
14 |
|
15 |
目前仍为实验版本,翻译质量较差.
|
16 |
|
17 |
# 日志
|
18 |
|
19 |
-
`
|
|
|
|
|
20 |
|
21 |
-
`20230827`:上传第一版模型`sakura-13b-2epoch-260k-0826-v0.1
|
22 |
|
23 |
# 模型详情
|
24 |
|
25 |
## 描述
|
26 |
|
|
|
|
|
27 |
- Finetuned by [SakuraUmi](https://github.com/pipixia244)
|
28 |
-
- Finetuned on [
|
29 |
-
- Base model: [
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
30 |
- Languages: Chinese/Japanese
|
31 |
|
32 |
## 版本
|
33 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
34 |
### v0.4
|
35 |
|
36 |
数据集:约260k Galgame中日文本 + 约2.3M 轻小说中日文本
|
@@ -53,17 +92,17 @@ pipeline_tag: text-generation
|
|
53 |
|
54 |
## 效果
|
55 |
|
56 |
-
| 原文 | Ours(v0.4) | Ours(v0.1) | ChatGPT(GPT-3.5) |
|
57 |
-
| ---- | ---- | ---- | ---- |
|
58 |
-
| 「女の子の一人暮らしって、やっぱ一階は防范的に危ないのかな~? お父さんには、一階はやめとけ~って言われててね?」
|
59 |
-
| 「助けて、誰か助けてって思いながら、ただただ泣いてたんです……」 |
|
60 |
-
| 「そうだよ。これが太一の普通の顔だって。でも、ちょっと不気味だから、わたしみたいにニッコリ笑ってみて?」 |
|
61 |
-
| 「そういうヒトの感情は、発情期を迎えてもいないネコには難しい」 | 「这种人类的感情,对还没进入发情期的猫来说太难懂了。」 |「这种人类的感情,对还没有迎来发情期的猫来说太难懂了」 |
|
62 |
-
| 「朝になって、病院に行くまで。ずっと、ずーっとそばに居てくれて……」 | 「一直陪伴着我,直到早上去医院为止……」
|
63 |
-
| 「それ以外は、自由に過ごしているため、各自が好きにできる、とても平和な部活だった……。」 |
|
64 |
-
| 「そーだそーだ。せっかくお店休みにして遊びに来たのに」 | 「没错没错,难得店里放假,我们才来玩的。」 |「是啊是啊,难得休息一天,我还想出来玩一下呢」| "是啊是啊。本来店铺难得休息,特地过来玩的呢。" |
|
65 |
-
| 伝えなければ、伝わらない。きっと、大事なことであるほど。 | 不说出来就不会知道。越是重要的事情,就越是不能不说。 |
|
66 |
-
| が、ハチロクを手伝うことでそれが果たせるというのなら、仕事がどれほど増えようと、決して苦とは感じない。 | 不过,如果帮助八六就能实现这个愿望,不管工作多么繁重,我都不会觉得辛苦。 |
|
67 |
# 推理
|
68 |
|
69 |
- Galgame翻译的prompt构建:
|
@@ -84,24 +123,34 @@ pipeline_tag: text-generation
|
|
84 |
prompt = "User: " + query + "\nAssistant: "
|
85 |
```
|
86 |
|
87 |
-
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
88 |
|
89 |
-
|
90 |
-
| ---- | ---- |
|
91 |
-
| beams number | 2 |
|
92 |
-
| repetition penalty | 1 |
|
93 |
-
| max new token | 512 |
|
94 |
-
| min new token | 1 |
|
95 |
|
96 |
- 量化:
|
97 |
|
98 |
-
在`model.generate()`中添加参数`load_in_8bit=True`或`load_in_4bit=True
|
99 |
|
100 |
-
其余推理流程与LLaMA2一致
|
101 |
|
102 |
# 微调
|
103 |
|
104 |
-
流程与LLaMA2一致,prompt构造参考推理部分
|
105 |
|
106 |
# 后续工作
|
107 |
|
@@ -121,4 +170,4 @@ This model is built upon Meta's LLaMA series of models and is subject to Meta's
|
|
121 |
|
122 |
This model is intended for use only by individuals who have obtained approval from Meta and are eligible to download LLaMA.
|
123 |
|
124 |
-
If you have not obtained approval from Meta, you must visit the https://ai.meta.com/llama/ page, read and agree to the model's licensing agreement, submit an application, and wait for approval from Meta before downloading the model from this page.
|
|
|
6 |
pipeline_tag: text-generation
|
7 |
---
|
8 |
|
9 |
+
|
10 |
+
<!-- markdownlint-disable first-line-h1 -->
|
11 |
+
<!-- markdownlint-disable html -->
|
12 |
+
<div align="center">
|
13 |
+
<h1>
|
14 |
+
Sakura-13B-Galgame
|
15 |
+
</h1>
|
16 |
+
</div>
|
17 |
+
|
18 |
+
<p align="center">
|
19 |
+
<a href="https://github.com/pipixia244/Sakura-13B-Galgame" target="_blank">🦉GitHub</a> | 🤖 <a href="https://www.modelscope.cn/models/sakuraumi/Sakura-13B-Galgame" target="_blank">ModelScope</a>
|
20 |
+
</p>
|
21 |
|
22 |
# 介绍
|
23 |
|
24 |
+
基于LLaMA2-13B,OpenBuddy(v0.1-v0.4)和Baichuan2-13B(v0.5+)构建,在Galgame中日文本数据上进行微调,旨在提供离线的Galgame文本翻译大模型.
|
25 |
+
|
26 |
+
模型下载:
|
27 |
+
| 版本 | 全量模型 | 8-bit量化 | 4-bit量化|
|
28 |
+
|:-------:|:-------:|:-------:|:-------:|
|
29 |
+
| 20230827-v0.1 | 🤗 [Sakura-13B-Galgame-v0.1](https://huggingface.co/sakuraumi/Sakura-13B-Galgame/tree/main/sakura_13b_model_v0.1) | - | - |
|
30 |
+
| 20230908-v0.4 | 🤗 [Sakura-13B-Galgame-v0.4](https://huggingface.co/sakuraumi/Sakura-13B-Galgame/tree/main/sakura_13b_model_v0.4) | - | - |
|
31 |
+
| 20230917-v0.5 | 🤗 [Sakura-13B-Galgame-v0.5](https://huggingface.co/sakuraumi/Sakura-13B-Galgame/tree/main/sakura_13b_model_v0.5) | 待上传 | - |
|
32 |
|
33 |
目前仍为实验版本,翻译质量较差.
|
34 |
|
35 |
# 日志
|
36 |
|
37 |
+
`20230917`:上传第三版模型`sakura-13b-2epoch-2.6M-0917-v0.5`,改用Baichuan2-13B-Chat模型进行微调,翻译质量有所提高。
|
38 |
+
|
39 |
+
`20230908`:上传第二版模型`sakura-13b-1epoch-2.6M-0903-v0.4`,使用Galgame和轻小说数据集进行微调,语法能力有所提高。轻小说数据集感谢[CjangCjengh](https://github.com/CjangCjengh)大佬提供。
|
40 |
|
41 |
+
`20230827`:上传第一版模型`sakura-13b-2epoch-260k-0826-v0.1`
|
42 |
|
43 |
# 模型详情
|
44 |
|
45 |
## 描述
|
46 |
|
47 |
+
### v0.1-v0.4
|
48 |
+
|
49 |
- Finetuned by [SakuraUmi](https://github.com/pipixia244)
|
50 |
+
- Finetuned on [Openbuddy-LLaMA2-13B](https://huggingface.co/OpenBuddy/openbuddy-llama2-13b-v8.1-fp16)
|
51 |
+
- Base model: [LLaMA2-13B](https://huggingface.co/meta-llama/Llama-2-13b-chat-hf)
|
52 |
+
- Languages: Chinese/Japanese
|
53 |
+
|
54 |
+
### v0.5+
|
55 |
+
|
56 |
+
- Finetuned by [SakuraUmi](https://github.com/pipixia244)
|
57 |
+
- Finetuned on [Baichuan2-13B-Chat](https://huggingface.co/baichuan-inc/Baichuan2-13B-Chat)
|
58 |
+
- Base model: [Baichuan2-13B-Base](https://huggingface.co/baichuan-inc/Baichuan2-13B-Base)
|
59 |
- Languages: Chinese/Japanese
|
60 |
|
61 |
## 版本
|
62 |
|
63 |
+
### v0.5+
|
64 |
+
|
65 |
+
数据集:约260k Galgame中日文本 + 约2.3M 轻小说中日文本
|
66 |
+
|
67 |
+
微调方式:全参数
|
68 |
+
|
69 |
+
微调epoch数:2
|
70 |
+
|
71 |
+
参数量:13B
|
72 |
+
|
73 |
### v0.4
|
74 |
|
75 |
数据集:约260k Galgame中日文本 + 约2.3M 轻小说中日文本
|
|
|
92 |
|
93 |
## 效果
|
94 |
|
95 |
+
| 原文 | Ours(v) | Ours(v0.4) | Ours(v0.1) | ChatGPT(GPT-3.5) |
|
96 |
+
| ---- | ---- | ---- | ---- | ---- |
|
97 |
+
| 「女の子の一人暮らしって、やっぱ一階は防范的に危ないのかな~? お父さんには、一階はやめとけ~って言われててね?」 | 「女生一个人住,一楼在防范上果然很危险吗~?我爸爸叫我不要住一楼哦。」 | 「女孩子一个人住,果然还是不太安全吧~?爸爸说过,不要住一楼~」 | 「一个女孩子住在一楼,还是有点不太安全吧?爸爸说让我不要住在一楼」 | "一个女孩子独自一人住,大概一楼会不安全吧~?爸爸对我说过,一楼最好不要住~" |
|
98 |
+
| 「助けて、誰か助けてって思いながら、ただただ泣いてたんです……」 | 「我一边想着谁来救救我,一边不停地哭……」 |「我一边想着有没有人能救救我,一边哭哭啼啼……」 | 「我一边祈祷着,祈祷着有人能来救救我们,一边不停地哭泣……」| 「帮帮我,我一边想着有人帮助我,一边只是哭泣着……」 |
|
99 |
+
| 「そうだよ。これが太一の普通の顔だって。でも、ちょっと不気味だから、わたしみたいにニッコリ笑ってみて?」 | 「对啊。这就是太一平常的表情。不过,这样有点毛骨悚然,所以试着像我这样笑吧?」 |「对啊,这就是太一的普通表情。不过,感觉有点诡异,你像我一样笑咪咪地试试看?」 |「是啊。这就是太一的普通表情。但是,因为有点吓人,所以你也试着像我一样微笑一下吧?」 | “是的呢,这就是太一的平常表情哦。不过,有点怪异,所以像我这样放个甜甜的笑容试试看?” |
|
100 |
+
| 「そういうヒトの感情は、発情期を迎えてもいないネコには難しい」 | 「对于还没到发情期的猫来说,人类的这种感情实在是有点难以理解」| 「这种人类的感情,对还没进入发情期的猫来说太难懂了。」 |「这种人类的感情,对还没有迎来发情期的猫来说太难懂了」 | 这种人类的情感对于尚未进入发情期的猫来说是复杂的。 |
|
101 |
+
| 「朝になって、病院に行くまで。ずっと、ずーっとそばに居てくれて……」 | 「从早上到去医院的这段时间,一直、一直陪在我身边……」 | 「一直陪伴着我,直到早上去医院为止……」 |「一直陪我到早上去医院。一直,一直陪在我身边……」 | "直到早晨去医院为止。一直,一直都在我身旁……" |
|
102 |
+
| 「それ以外は、自由に過ごしているため、各自が好きにできる、とても平和な部活だった……。」 | 「除此之外,由于可以自由活动,大家都能随心所欲,所以是非常和平的社团活动……」 |「除此之外,我们都可以自由活动,每个人都能随心所欲,是个非常和平的社团……」 | 「除此之外,社团活动都是自由参加的,每个人都可以按自己的意愿去做自己想做的事情,所以社团活动也是非常和平的……」 | 「除此以外,因为大家都自由自在地度过时间,是个每个人都能按自己喜好随意参与的非常和平的社团活动......。」|
|
103 |
+
| 「そーだそーだ。せっかくお店休みにして遊びに来たのに」 | 「对��对呀,难得我们关店跑出来玩耶。」 | 「没错没错,难得店里放假,我们才来玩的。」 |「是啊是啊,难得休息一天,我还想出来玩一下呢」| "是啊是啊。本来店铺难得休息,特地过来玩的呢。" |
|
104 |
+
| 伝えなければ、伝わらない。きっと、大事なことであるほど。 | 不表达就传达不了。越是重要的事情,越是如此。 | 不说出来就不会知道。越是重要的事情,就越是不能不说。 | -- | 如果不传达,就不会传达。毫无疑问,对于重要的事情来说是如此。 |
|
105 |
+
| が、ハチロクを手伝うことでそれが果たせるというのなら、仕事がどれほど増えようと、決して苦とは感じない。 | 不过,如果帮忙八六能让我实现这个愿望,无论工作增加多少,我也绝不会觉得痛苦。 | 不过,如果帮助八六就能实现这个愿望,不管工作多么繁重,我都不会觉得辛苦。 | -- | 如果通过帮助八六实现这一目标,无论工作增加多少,我绝不会感到苦恼。 |
|
106 |
# 推理
|
107 |
|
108 |
- Galgame翻译的prompt构建:
|
|
|
123 |
prompt = "User: " + query + "\nAssistant: "
|
124 |
```
|
125 |
|
126 |
+
- v0.5+
|
127 |
+
|
128 |
+
```python
|
129 |
+
input_text = "" # 用户输入
|
130 |
+
query = "将下面的日文文本翻译成中文:" + input_text
|
131 |
+
prompt = "<reserved_106>" + query + "<reserved_107>"
|
132 |
+
```
|
133 |
+
|
134 |
+
- 推理与解码参数:
|
135 |
+
|
136 |
+
| 参数 | v0.1值 | v0.5+值 |
|
137 |
+
| ---- | ---- | --- |
|
138 |
+
| beams number | 2 | 1 |
|
139 |
+
| repetition penalty | 1 | 1 |
|
140 |
+
| max new token | 512 | 512 |
|
141 |
+
| min new token | 1 | - |
|
142 |
|
143 |
+
或使用sample方式均可。
|
|
|
|
|
|
|
|
|
|
|
144 |
|
145 |
- 量化:
|
146 |
|
147 |
+
在`model.generate()`中添加参数`load_in_8bit=True`或`load_in_4bit=True`,或者使用我们提供的量化模型。
|
148 |
|
149 |
+
其余推理流程与LLaMA2(v0.1-v0.4)/Baichuan2(v0.5+)一致
|
150 |
|
151 |
# 微调
|
152 |
|
153 |
+
流程与LLaMA2(v0.1-v0.4)/Baichuan2(v0.5+)一致,prompt构造参考推理部分
|
154 |
|
155 |
# 后续工作
|
156 |
|
|
|
170 |
|
171 |
This model is intended for use only by individuals who have obtained approval from Meta and are eligible to download LLaMA.
|
172 |
|
173 |
+
If you have not obtained approval from Meta, you must visit the https://ai.meta.com/llama/ page, read and agree to the model's licensing agreement, submit an application, and wait for approval from Meta before downloading the model from this page.
|