预设 | 插件模式 & 流式输出 | 图像渲染输出 |
---|---|---|
- 🚀 高度可扩展(基于 LangChain 和 Koishi API)
- 🎭 自定义对话预设
- 🛡️ 速率限制和黑名单系统
- 🎨 多格式输出(文本、语音、图像、混合)
- 🧠 上下文感知和长期记忆
- 🔀 三种模式:聊天、浏览、插件
- 🔒 内容审核(通过 Koishi 审核服务)
- 基于房间的对话系统
- 回复内容审核 (基于其他插件提供的 censor 服务)
- 语音输出支持(即文字转语音,基于 initialencounter 佬的 vits服务)
- 图片渲染回复
- 接入更多模型/平台
- 预设系统
-
导入或导出会话记录(实际未完成,已放弃支持) - 重构到 v1 版本
- 流式响应支持
- i18n 本地化支持
我们可在 Koishi 下直接安装本插件使用基础功能而无需额外配置。
阅读 此文档 了解更多。
我们目前支持以下模型/平台:
模型/平台 | 接入方式 | 特性 | 注意事项 |
---|---|---|---|
OpenAI | 本地 Client,官方 API 接入 | 可自定义人格,支持插件/浏览模式等聊天模式 | API 接入需要付费 |
Azure OpenAI | 本地 Client,官方 API 接入 | 可自定义人格,支持插件/浏览模式等聊天模式 | API 接入需要付费 |
Google Gemini | 本地 Client,官方 API 接入 | 速度快,性能超越 GPT-3.5 | 需要有 Gemini 访问权限账号,可能收费 |
Claude API | 本地 Client,官方 API 接入 | 超大上下文,大部分情况下能超过 GPT 3.5,需要 API KEY,收费 | 可能较贵,不支持 Function Call |
通义千问 | 本地 Client,官方 API 接入 | 阿里出品国产模型,有免费额度 | 实测效果比智谱略好 |
智谱 | 本地 Client,官方 API 接入 | ChatGLM,新人注册可获取免费 Token 额度 | 实测效果比讯飞星火略好 |
讯飞星火 | 本地 Client,官方 API 接入 | 国产模型,新人注册可获取免费 Token 额度 | 实测效果约等于 GPT 3.5 |
文心一言 | 本地 Client,官方 API 接入 | 百度出品系列模型模型 | 实测效果比讯飞星火略差 |
混元大模型 | 本地 Client,官方 API 接入 | 腾讯出品系列大模型 | 实测效果比文心一言好 |
Ollama | 本地 Client,自搭建 API 接入 | 知名开源模型合集,支持 CPU / GPU 混合部署,可本地搭建 | 需要自己搭建后端 API,要求一定的配置 |
GPT Free | 本地 Client,官方 API 接入 | 本地转发使用其他网站的 GPT 模型,项目自动配置网站等配置,无需手动注册 | 可能随时失效,不稳定 |
ChatGLM | 本地 Client,自搭建后端 API 接入 | 可本地搭建,四舍五入不要钱 | 需要自己搭建后端 API,要求一定的配置,模型参数不够大导致聊天效果不够好 |
RWKV | 本地 Client,自搭建 API 接入 | 知名开源模型,可本地搭建 | 需要自己搭建后端 API,要求一定的配置 |
为模型提供网络搜索能力 我们支持:
- Google (API)
- Bing (API / Web)
- DuckDuckGO (Lite)
- Tavily (API)
从 1.0.0-alpha.10
版本开始,我们使用更加可定制化的预设。新的人格预设使用 yaml 做为配置文件。
你可以点这里来查看我们默认附带的人格文件:catgirl.yml
我们默认的预设文件夹路径为 你当前运行插件的 koishi 目录的路径+/data/chathub/presets
。
所有的预设文件都是从上面的文件夹上加载的。因此你可以自由添加和编辑预设文件在这个文件夹下,然后使用命令来切换人格预设。
如需了解更多,可查看此文档。
在任意 Koishi 模版项目上运行下列指令来克隆 ChatLuna:
# yarn
yarn clone ChatLunaLab/chatluna
# npm
npm run clone ChatLunaLab/chatluna
可将上面 ChatLunaLab/chatluna-koishi
替换成你自己 Fork 后的项目地址。
然后编辑模版项目根目录下的 tsconfig.json
文件,在 compilerOptions.paths
中添加 ChatLuna 项目路径。
{
"extends": "./tsconfig.base",
"compilerOptions": {
"baseUrl": ".",
"paths": {
"koishi-plugin-chatluna-*": ["external/chatluna/packages/*/src"]
}
}
}
由于项目本身比较复杂,初始使用必须构建一次。
# yarn
yarn workspace @root/chatluna-koishi build
# npm
npm run build -w @root/chatluna-koishi
完成!现在即可在根项目中使用 yarn dev
或 npm run dev
启动模版项目并二次开发 ChatLuna。
虽然 Koishi 支持模块热替换(hmr),但本项目可能并未完全兼容。
如果你在使用 hmr 二次开发本项目时出现了 Bug,请在 Issue 中提出,并按上面步骤重新构建项目并重启 Koishi 以尝试修复。
目前 ChatLuna 项目组产能极为稀缺,没有更多产能来完成下面的目标:
- Web UI
- Http Server
- Project Documentation
欢迎提交 Pull Request 或进行讨论,我们非常欢迎您的贡献!
本项目由ChatLunaLab 开发。
ChatLuna(下称本项目) 是一个基于大型语言模型的对话机器人框架。我们致力于与开源社区合作,推动大模型技术的发展。我们强烈呼吁开发者和其他使用者遵守开源协议,确保不将本项目(以及社区推动的基于本项目的其他衍生产品)的框架和代码以及相关衍生物用于可能对国家和社会造成危害的任何目的,以及未经过安全评估和备案的服务。
本项目不直接提供任何生成式人工智能服务的支持,需要使用者自行从提供了生产式人工智能服务的组织或个人获取使用的算法 API。
如果您使用了本项目,请您遵循当地地区的法律法规,使用在当地地区内可用的生产式人工智能服务算法。
本项目不对算法生成的结果负责,所有结果和操作均由使用者自行负责。
本项目的相关信息存储均由用户自行配置来源,项目本身不提供直接的信息存储。
本项目不承担使用者导致的数据安全、舆情风险或发生任何模型被误导、滥用、传播、不当利用而产生的风险和责任。
本项目在编写时也参考了其他的开源项目,特别感谢以下项目: