如何进行多轮对话呢?content必须是字符串,怎么传history进去?
#2
by
XLH
- opened
- 如何进行多轮对话呢?context必须是字符串,怎么传history进去?
- 需不需要调参呢?默认参数是否就可以产生足够好的结果呢?默认参数的生成结果比较固定,而且有幻觉问题。
- 发现一个可能的bug,max_lenght和max_new_tokens有些冲突,前者通常是LLM常用的输出最大长度变量。modeling_cpmbee.py里面两个都有,但是只有修改generation_config.json中max_new_tokens(或者传参max_new_tokens)才管用,前者会出错。
- 如何进行多轮对话呢?context必须是字符串,怎么传history进去?
- 需不需要调参呢?默认参数是否就可以产生足够好的结果呢?默认参数的生成结果比较固定,而且有幻觉问题。
- 发现一个可能的bug,max_lenght和max_new_tokens有些冲突,前者通常是LLM常用的输出最大长度变量。modeling_cpmbee.py里面两个都有,但是只有修改generation_config.json中max_new_tokens(或者传参max_new_tokens)才管用,前者会出错。
- 可以将历史拼接后通过context参数传入
- cpm bee使用的是beam search解码,因此生成结果是确定的。幻觉问题是众多大模型都在努力解决但又尚未完全解决的问题,我们未来也会进行幻觉方面的优化更新。在QA90等数据集上的测试结果显示,viscpm的幻觉问题比竞品要好。单个case测出的结果可能会有不同,但我们认为在更广泛的测试集上测试的结果可能更有参考意义。
欢迎您帮我们反映case,帮助我们持续优化。
cppowboy
changed discussion status to
closed