Update README.md
Browse files
README.md
CHANGED
@@ -24,7 +24,7 @@ ChatYuan-large-v2是ChatYuan系列中以轻量化实现高质量效果的模型
|
|
24 |
- 新增了代码生成功能。对于基础代码生成进行了一定程度优化。
|
25 |
- 新增了表格生成功能。使生成的表格内容和格式更适配。
|
26 |
- 增强了基础数学运算能力。
|
27 |
-
- 最大长度token
|
28 |
- 增强了模拟情景能力。
|
29 |
- 新增了中英双语对话能力。
|
30 |
|
@@ -100,7 +100,7 @@ def answer(text, sample=True, top_p=1, temperature=0.7):
|
|
100 |
'''sample:是否抽样。生成任务,可以设置为True;
|
101 |
top_p:0-1之间,生成的内容越多样'''
|
102 |
text = preprocess(text)
|
103 |
-
encoding = tokenizer(text=[text], truncation=True, padding=True, max_length=
|
104 |
if not sample:
|
105 |
out = model.generate(**encoding, return_dict_in_generate=True, output_scores=False, max_new_tokens=512, num_beams=1, length_penalty=0.6)
|
106 |
else:
|
|
|
24 |
- 新增了代码生成功能。对于基础代码生成进行了一定程度优化。
|
25 |
- 新增了表格生成功能。使生成的表格内容和格式更适配。
|
26 |
- 增强了基础数学运算能力。
|
27 |
+
- 最大长度token数从1024扩展到4096。
|
28 |
- 增强了模拟情景能力。
|
29 |
- 新增了中英双语对话能力。
|
30 |
|
|
|
100 |
'''sample:是否抽样。生成任务,可以设置为True;
|
101 |
top_p:0-1之间,生成的内容越多样'''
|
102 |
text = preprocess(text)
|
103 |
+
encoding = tokenizer(text=[text], truncation=True, padding=True, max_length=512, return_tensors="pt").to(device)
|
104 |
if not sample:
|
105 |
out = model.generate(**encoding, return_dict_in_generate=True, output_scores=False, max_new_tokens=512, num_beams=1, length_penalty=0.6)
|
106 |
else:
|