-
Notifications
You must be signed in to change notification settings - Fork 430
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
glm4-9b-chat和LoRA微调模型merge之后,使用vLLM推理,工具调用功能报错。 #607
Comments
我这边试验的结果也是merge后异常 |
解决了吗?遇到同样的问题 |
想知道你们是怎么merge的,template还在吗?想查看一下tokenizer_config.json中的chat_template是否发生变化 |
我是通过LLaMA-Factory工具微调的,自带导出模型的功能。 |
@zRzRzRzRzRzRzR 我是直接按llama-factory的命令运行 llamafactory export xxxx.yaml
chat_template我检查了一下:
merge之后:
这块我不太了解了,但确实有变化,会不会是这个的原因。 |
我是通过llama-factory的webui直接导出的,template选的是glm4 |
能否提供微调数据集和工具测试的完整代码以供测试 |
貌似没法提供,毕竟都是按照llama-factory教程部署和操作的。数据集应该随便一个都行。 微调命令:
merge命令:
merge.yaml
|
我成功复现你的问题了,问题出现在template模版上,目前的解决方案是修改llama-factory微调merge后权重的
重新执行 |
@sixsixcoder 调用工具不报错了。通过llamafactory微调glm4后乱码是什么原因导致的啊,随便一个训练数据都是这个问题。 |
@Andy1018 请教一下,你这边用的也是glm4-9b-chat吗 |
是的 |
System Info / 系統信息
Who can help? / 谁可以帮助到您?
@sixsixcoder @zr
Information / 问题信息
Reproduction / 复现过程
1. LoRA微调
使用LLaMA-Factory,自定义数据集、yaml文件,
llamafactory-cli train
进行LoRA微调。2.glm4-9b-chat和LoRA进行merge
使用LLaMA-Factory,
llamafactory-cli export
得到merge模型。3.工具调用测试代码
使用官方提供的openai_api_server.py, vLLM推理。
工具测试部分代码:
4.模型测试
测试如下,用base和两种不同的lora调用方式测试
输出结果:
结果同
glm4-9b-chat模型
,可正常调用工具。Expected behavior / 期待表现
此外,merge模型不调用工具的话,简单的只是
llm.chat.completions.create(..., messages)
或者llm.invoke()
是可以正常回答的,但涉及到工具调用会出现如上报错。这是什么原因,还请劳烦大佬解答一下。
The text was updated successfully, but these errors were encountered: