Update README.md: Fix sampling top_p
Browse files
README.md
CHANGED
@@ -103,7 +103,7 @@ print(tokenizer.decode(outputs[0], skip_special_tokens=True))
|
|
103 |
|
104 |
### 模型生成效果
|
105 |
|
106 |
-
下表为各个扩词表模型的生成效果。由于部分模型的预训练语料未使用`eos_token`进行分隔,我们采用了`max_tokens = 100`对生成文本进行截断。我们的采样参数为`temperature = 0.8, top_p = 0.
|
107 |
|
108 |
![](./img/case.png)
|
109 |
|
|
|
103 |
|
104 |
### 模型生成效果
|
105 |
|
106 |
+
下表为各个扩词表模型的生成效果。由于部分模型的预训练语料未使用`eos_token`进行分隔,我们采用了`max_tokens = 100`对生成文本进行截断。我们的采样参数为`temperature = 0.8, top_p = 0.9`。
|
107 |
|
108 |
![](./img/case.png)
|
109 |
|