本项目旨在通过使用Xtuner对基于InternLM2架构的Chat大模型进行微调,以提升模型在财税领域的表现和预测能力。通过利用大量的财税数据和优秀的大模型微调技术,我们期望此模型能够帮助财税专业人士、公司和政策制定者更好地理解财税政策、预测经济趋势,并做出更加明智的决策。
- 基于先进的InternLM2架构:采用业界领先的语言模型框架,确保模型的强大性能和灵活性。
- 专门微调:通过Xtuner精细调整模型参数,使模型更适合财税领域的具体需求。
- 广泛应用场景:适用于财税政策分析、趋势预测、税务规划和风险管理等多个方面。
- 易于集成:可轻松集成到现有的财税分析工具和平台中。
请确保您已安装Conda。然后,您可以克隆此存储库并安装相关的包。
git clone https://github.com/zbisure/FinanceTaxLLM.git
cd FinanceTaxLLM/env
本项目使用Xtuner对InternLM2模型进行微调,以改善其在财税领域的性能。微调过程基于以下步骤:
准备并预处理财税领域的数据集。
根据财税任务的特点设置微调参数。
使用Xtuner和准备好的数据对模型进行微调。
评估微调后模型的性能,并进行必要的调整。
本项目属于书生浦语实战训练营的练习项目,数据集量非常少,所以微调之后的模型效果不是很好,后续需要收集更多的数据集加入训练,如果有相关数据集也欢迎沟通交流。
感谢书生·浦语大模型实战训练营提供学习的机会
该项目采用 Apache License 2.0 开源许可证 同时,请遵守所使用的模型与数据集的许可证。