又可用的 baichuan.cpp 借用avx2运行的吗,我看都是 csm家族的模型呢

#19
by redauzhang - opened

rt: 正如 llama/bloomz 都有对应的cpu运行加速方法。

llama.cpp 已支持 baichuan-7b.

redauzhang changed discussion status to closed

chatglm.cpp 已支持 Baichuan-13B 和 Baichuan-13B-Chat 了

Sign up or log in to comment