Skip to content

Latest commit

 

History

History
167 lines (126 loc) · 8.08 KB

README.md

File metadata and controls

167 lines (126 loc) · 8.08 KB

闻达:一个大规模语言模型调用平台

针对特定环境的内容生成是LLM使用中的一项重要应用,实现这一目的,主要有全量微调lora微调、和本项目方法。但个人没有做全量微调的,lora微调只能牺牲基础能力换单任务效果(用6B模型lora调出来的单任务效果,专门设计一个0.5B模型也能实现,且推理成本更低)。

而本项目采用知识库+auto脚本的形式为LLM提高生成能力,充分考虑个人和中小企业的资源问题,以及国内大背景下知识安全和私密性问题,实现使小模型获得近似于大模型的生成能力。

  1. 目前支持模型:chatGLM-6BchatRWKVchatYuanllama系列以及openaiapichatglm130b api,初步支持moss
  2. 使用知识库扩展模型所知信息,使用auto提高模型生成质量和复杂问题解决能力
  3. 支持chatGLM-6BchatRWKVllama系列流式输出和输出过程中中断
  4. 自动保存对话历史至浏览器(多用户同时使用不会冲突,chatRWKV历史消息实现方式需使用string)
  5. 对话历史管理(删除单条、清空)
  6. 支持局域网、内网部署和多用户同时使用。

交流QQ群:LLM使用和综合讨论群162451840;知识库使用讨论群241773574;Auto开发交流群744842245;discussions

安装部署

懒人包

链接:https://pan.baidu.com/s/105nOsldGt5mEPoT2np1ZoA?pwd=lyqz

视频教程:https://www.bilibili.com/video/BV1aX4y1z7ar/?vd_source=629edb00375d46ad4097acdc7cbc0ca3

提取码:lyqz

默认参数在6G显存设备上运行良好。最新版懒人版已集成一键更新功能,建议使用前更新。

使用步骤(以glm6b模型为例):

  1. 下载懒人版主体(最新版已集成模型,因此不需单独下载)。
  2. 如果没有安装CUDA11.8,从网盘下载并安装。
  3. 双击运行运行GLM6B.bat
  4. 如果需要生成离线知识库,参考 知识库

自行安装

1.安装库

通用依赖:pip install -r requirements.txt 根据使用的 知识库进行相应配置

2.下载模型

根据需要,下载对应模型。

建议使用chatRWKV的RWKV-4-Raven-7B-v11,或chatGLM-6B。

3.参数设置

example.config.yml重命名为config.yml,根据里面的参数说明,填写你的模型下载位置等信息

Auto

auto功能通过JavaScript脚本实现,使用油猴脚本或直接放到autos目录的方式注入至程序,为闻达附加各种自动化功能。

部分内置Auto使用说明

文件名 功能
0-write_article.js 写论文:根据题目或提纲写论文
0-zsk.js 知识库增强和管理
face-recognition.js 纯浏览器端人脸检测:通过识别嘴巴开合,控制语音输入。因浏览器限制,仅本地或TLS下可用
QQ.js QQ机器人:配置过程见文件开头注释
block_programming.js 猫猫也会的图块化编程:通过拖动图块实现简单Auto功能
1-draw_use_SD_api.js 通过agents模块(见example.config.yml<Library>)调用Stable Diffusion接口绘图

以上功能主要用于展示auto用法,进一步能力有待广大用户进一步发掘。

auto例程

知识库

知识库原理是生成一些提示信息,会插入到对话里面。

fess模式、bing模式均调用搜索引擎搜索获取答案。

搜索后在回答之前插入提示信息,知识库的数据就被模型知道了。

为防止爆显存,插入的数据不能太长,所以有字数限制。

有以下几种方案:

  1. rtst模式,sentence_transformers+faiss进行索引,支持预先构建索引和运行中构建。
  2. bing模式,cn.bing搜索,仅国内可用
  3. bingsite模式,cn.bing站内搜索,仅国内可用
  4. fess模式,本地部署的fess搜索,并进行关键词提取
  5. mix模式,融合

rtst模式

sentence_transformers+faiss进行索引、匹配,并连同上下文返回。目前支持txt和pdf格式。

支持预先构建索引和运行中构建,其中,预先构建索引强制使用cuda,运行中构建根据config.ymlrtst段的device(embedding运行设备)决定,对于显存小于12G的用户建议使用CPU

Windows预先构建索引运行:plugins/buils_rtst_default_index.bat

Linux直接使用wenda环境执行 python plugins/gen_data_st.py

需下载模型GanymedeNil/text2vec-large-chinese置于model文件夹,并将txt格式语料置于txt文件夹。

fess模式

在本机使用默认端口安装fess后可直接运行。否则需修改config.ymlfess_host127.0.0.1:8080为相应值。FESS安装教程

知识库调试

使用

正常使用中,勾选右上角知识库

模型配置

chatGLM-6B

运行:run_GLM6B.bat

模型位置等参数:修改config.yml

默认参数在GTX1660Ti(6G显存)上运行良好。

chatRWKV

运行:run_rwkv.bat

模型位置等参数:修改config.yml

默认参数在GTX1660Ti(6G显存)上正常运行,但速度较慢。

设置strategy诸如"Q8_0->8"即支持量化在cpu运行,速度较慢,没有显卡或者没有nvidia显卡的用户使用。 注意默认librwkv.so是在debian sid编译的,不支持windows,其他linux发行版本未知。可以查看:saharNooby/rwkv.cpp,下载windows版本,或者自行编译。 plugins/rwkvcpp里的三个模块来自saharNooby/rwkv.cpp

生成小说

文字冒险游戏

llama

运行:run_llama.bat

注意库最好使用我修改的:llama-cpp-python,才可以正常使用中文(截止4月15日)。

编译好的:https://github.com/l15y/llama-cpp-python/releases

模型位置等参数:修改config.yml

基于本项目的二次开发

项目调用闻达的 api 接口实现类似于 new bing 的功能。 技术栈:vue3 + element-plus + ts

Star History Chart