-
Notifications
You must be signed in to change notification settings - Fork 430
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
使用llama-factory进行lora微调后,推理正常,但是tools调用异常 #508
Comments
不支持Function Call 功能,因为 vLLM 官方仓库统一没有支持该功能(无论何种模型) |
我用的GLM-4-main/basic_demo/openai_api_server.py脚本,原始模型支持Function Call,微调后就不支持了,这是怎么回事 |
GLM4中openai的demo底座是vllm,vllm不支持Function Call |
但是原始模型使用openai_api_server.py是支持function call的啊,为什么微调后,再用openai_api_server.py就不支持了,如果想要支持,我需要改哪些。 |
v100不支持bf16,微调只能用bf16进行 |
v100支持bf16,我微调成功了 |
那你的意思是微调的时候选择fp32或者fp16? |
微调的时候最好是bf16,fp16可能会出现溢出问题,推理的时候fp16可以成功运行,但也会有很小概率溢出,fp32的话相对这两个精度会慢,资源消耗也会大 |
其实我想要的是微调后仍然能通过openai_api_server.py支持function call |
请问你这问题解决了吗,我使用llama-factory,显卡是4090并采用bf16精度微调工具,也是报错这个 |
问题没有解决,总感觉哪里有问题,但是glm的人也不给实质性的回答。我在哔哩哔哩上问过别人,那个人说他也遇到这个问题,解决不了就放弃使用function call了。 |
你没“复习”,“遗忘也正常”。 微调是会调整内部参数权重,训练数据要有你新增的数据集,也要有你期望要保留功能的数据集。然后,保留功能的数据集,占比还要比你新增的数据集多很多。 上面说的,是我看到glm的人,在chatglm和 glm 项目,有回复过。意思就是上面的那样。 微调后,会遗忘。不想遗忘原来的,在微调时,就需要学习少量新的 + 大量复习旧的。 |
我微调后,个人的看法是, 个人 会把 开源的 5+5+5+7+6+4 这样的多边形战士。调整后,多半会变成 7+2+3+5 的多边形战士。调的好的可以做到 10+2+3+5 的多边形战士。 |
我们这个问题不是说的微调没效果,我们的问题是微调后只要Agent触发函数调用就会报错 |
+1 |
@kaixindeyouxia 如果用命令行启动vllm serve服务,vllm不支持工具调用,但是它并发推理是真的快。还有个问题,我用命令行参数传递lora模型,貌似也不起作用,不知道为什么。 如果是llama-factory训练lora之后将lora和glm4-9b-chat进行merge,合并之后的模型运行openai_api_server.py调用工具,会有报错。 |
我成功复现你的问题了,问题出现在template模版上,llama-factory到处merge后的模型文件时,替换了
重新执行 |
@sixsixcoder 非常感谢,改天我试试。 |
System Info / 系統信息
操作系统=ubuntu20.04
显卡=4 x v100
model=glm-9b-chat
python=3.11.8
llama-factory=0.8.3
transformers=4.43.3
vllm=0.5.3.post1
Who can help? / 谁可以帮助到您?
No response
Information / 问题信息
Reproduction / 复现过程
通过llama-factory对glm-9b-chat模型进行lora微调,使用Supervised Fine-Tuning,主要是微调自我意识,然后将微调后的模型导出,修改GLM-4-main/basic_demo/openai_api_server.py文件,设置MODEL_PATH = '/opt/glm-9b-chat-lora',启动openai_api_server.py,通过接口正常的推理没有问题,一切正常
然后进行tool调用时报错,报错信息如下:
Expected behavior / 期待表现
是我微调的问题吗,希望微调后能实现原来glm-9b-chat的tool调用能力
The text was updated successfully, but these errors were encountered: