如何进行多轮对话呢?content必须是字符串,怎么传history进去?

#2
by XLH - opened
  1. 如何进行多轮对话呢?context必须是字符串,怎么传history进去?
  2. 需不需要调参呢?默认参数是否就可以产生足够好的结果呢?默认参数的生成结果比较固定,而且有幻觉问题。
  3. 发现一个可能的bug,max_lenght和max_new_tokens有些冲突,前者通常是LLM常用的输出最大长度变量。modeling_cpmbee.py里面两个都有,但是只有修改generation_config.json中max_new_tokens(或者传参max_new_tokens)才管用,前者会出错。

默认的图片描述,似乎效果不如VisualGLM。图中其实并没有鸟出现
image.png

OpenBMB org
  1. 如何进行多轮对话呢?context必须是字符串,怎么传history进去?
  2. 需不需要调参呢?默认参数是否就可以产生足够好的结果呢?默认参数的生成结果比较固定,而且有幻觉问题。
  3. 发现一个可能的bug,max_lenght和max_new_tokens有些冲突,前者通常是LLM常用的输出最大长度变量。modeling_cpmbee.py里面两个都有,但是只有修改generation_config.json中max_new_tokens(或者传参max_new_tokens)才管用,前者会出错。
  1. 可以将历史拼接后通过context参数传入
  2. cpm bee使用的是beam search解码,因此生成结果是确定的。幻觉问题是众多大模型都在努力解决但又尚未完全解决的问题,我们未来也会进行幻觉方面的优化更新。在QA90等数据集上的测试结果显示,viscpm的幻觉问题比竞品要好。单个case测出的结果可能会有不同,但我们认为在更广泛的测试集上测试的结果可能更有参考意义。

欢迎您帮我们反映case,帮助我们持续优化。

cppowboy changed discussion status to closed

Sign up or log in to comment