Skip to content

Latest commit

 

History

History
86 lines (57 loc) · 3.08 KB

README_zh.md

File metadata and controls

86 lines (57 loc) · 3.08 KB

LMDeploy-Jetson社区

在NVIDIA Jetson平台离线部署大模型,开启离线具身智能新纪元。

[中文] | [English]

本项目提供一种将LMDeploy移植到NVIDIA Jetson系列边缘计算卡的方法,并在Jetson计算卡上运行InternLM系列大模型,为离线具身智能提供可能。

最新新闻🎉

社区招募

  • 招募社区管理员(联系方式,[email protected])
  • 招募更多型号Jetson板卡的Benchmark测试数据,可直接PR,如:
    • Jetson Nano
    • Jetson TX2
    • Jetson AGX Xavier
    • Jetson Orin Nano
    • Jetson AGX Orin
  • 招募开发者制作Jetson专用whl发行版
  • README优化等

已验证模型/平台

  • ✅:已验证可运行
  • ❌:已验证不可运行
  • ⭕️:待验证
Models InternLM-7B InternLM-20B InternLM2-1.8B InternLM2-7B InternLM2-20B
Orin AGX(32G)
Jetpack 5.1

Mem:??/??
14.68 token/s

Mem:??/??
5.82 token/s

Mem:??/??
56.57 token/s

Mem:??/??
14.56 token/s

Mem:??/??
6.16 token/s
Orin NX(16G)
Jetpack 5.1

Mem:8.6G/16G
7.39 token/s

Mem:14.7G/16G
3.08 token/s

Mem:5.6G/16G
22.96 token/s

Mem:9.2G/16G
7.48 token/s

Mem:14.8G/16G
3.19 token/s
Xavier NX(8G)
Jetpack 5.1

Mem:4.35G/8G
28.36 token/s

如果您有更多Jetson系列板卡,欢迎运行Benchmark并通过Pull requests(PR)提交结果,成为社区贡献者之一!

未来工作

  • 更新更多型号Jetson板卡的Benchmark测试数据
  • 制作Jetson专用whl发行版
  • 跟进更新版本的LMDeploy

部署教程

S1.服务器端模型W4A16量化

S2.Jetson端安装Miniconda

S3.Jetson端安装CMake-3.29.0

S4.Jetson端安装RapidJson

S5.Jetson端安装Pytorch-2.1.0

S6.Jetson端移植LMDeploy-0.2.5

S7.Jetson端离线运行InternLM大模型

附录

社区项目

引用

如果本项目对您的工作有所帮助,请使用以下格式引用:

@misc{2024lmdeployjetson,
    title={LMDeploy-Jetson:Opening a new era of Offline Embodied Intelligence},
    author={LMDeploy-Jetson Community},
    url={https://github.com/BestAnHongjun/LMDeploy-Jetson},
    year={2024}
}

致谢