Skip to content
This repository has been archived by the owner on Dec 6, 2024. It is now read-only.

希望团队能继续支持qwen.cpp #60

Open
awtestergit opened this issue Dec 16, 2023 · 3 comments
Open

希望团队能继续支持qwen.cpp #60

awtestergit opened this issue Dec 16, 2023 · 3 comments

Comments

@awtestergit
Copy link

qwen大模型目前用下来是国内非常好的模型,在qwen.cpp之前直接用HF的transformer效果有限,token速度慢尤其是最后一些tokens极慢。在cpp出来后有如神助,能充分发挥qwen模型(尤其是14b以上的模型),自己测下来比其他国内大模型好用。

qwen.cpp也有些bug,大家在issue中有提及,可惜团队目前不打算更新cpp了?

qwen cpp merge到llama cpp后,没有什么好的python binding。llama-cpp-python适配起来效果有限,而且同样的prompt,尤其在长context情况下,该binder输出很差,无法与qwen cpp比,目前我已放弃。

如果没有好的binder,会影响大家使用qwen大模型。希望团队能考虑继续支持qwen cpp!

@wanshichenguang
Copy link

不如希望chatglm.cpp可以支持qwen,官方的也没怎么更新

@awtestergit
Copy link
Author

不如希望chatglm.cpp可以支持qwen,官方的也没怎么更新

刚去留了言,希望能够支持qwen模型。
li-plus/chatglm.cpp#146

@awtestergit
Copy link
Author

真可惜,qwen模型目前在中文效果真算不错的,可惜官方不重视qwen.cpp,直接用transformer调用qwen太慢。我已经在测试其他模型看看能否替代。希望官方能重视qwen cpp。
@simonJJJ

Sign up for free to subscribe to this conversation on GitHub. Already have an account? Sign in.
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants