Langchain-Chatchat 部署教程!开源可免费商用,完全本地化推理的知识库增强方案!!

图片[1]-Langchain-Chatchat 部署教程!开源可免费商用,完全本地化推理的知识库增强方案!!-零度博客

Langchain-Chatchat 是一个可以实现:完全本地化推理的知识库增强方案, 重点解决数据安全保护,私域化部署的企业痛点。 开源方案采用Apache License,可以免费商用,无需付费。

支持市面上主流的本地大语言模型和Embedding 嵌入式模型,支持开源的本地向量数据库。

图片[2]-Langchain-Chatchat 部署教程!开源可免费商用,完全本地化推理的知识库增强方案!!-零度博客

图片[3]-Langchain-Chatchat 部署教程!开源可免费商用,完全本地化推理的知识库增强方案!!-零度博客

1. 环境配置

  • 首先,确保你的机器安装了 Python 3.8 – 3.11  (强烈推荐使用 Python3.11) 【点击前往
  • 安装CUDA Toolkit,建议安装 CUDA 12.1版本,因为开发者就是用的这个版本,点击前往官方下载
  • 需要注意的是,如果你不在海外,需要自行全局科学上网,否则无法正常安装。

2. 正式安装

大陆用户请选择本地安装包:网盘打包下载

拉取仓库项目文件:

# 拉取仓库
 git clone https://github.com/chatchat-space/Langchain-Chatchat.git

# 进入目录
 cd Langchain-Chatchat

# 安装全部依赖
 pip install -r requirements.txt 
 pip install -r requirements_api.txt
 pip install -r requirements_webui.txt  

# 默认依赖包括基本运行环境(FAISS向量库)。如果要使用 milvus/pg_vector 等向量库,请将 requirements.txt 中相应依赖取消注释再安装。

3.下载模型

git lfs install
git clone https://huggingface.co/THUDM/chatglm3-6b
git clone https://huggingface.co/BAAI/bge-large-zh

初始化配置

python copy_config_example.py
python init_database.py --recreate-vs

4.启动

python startup.py -a

第一次启动的时候需要输入一个邮箱,就可以打开 webUI 可视化界面进行使用!

GPU硬件推荐参数

7B的模型,显存14GB+,推荐 NVIDIA RTX4080 16G及以上
14B级模型,显存30GB+,推荐 NVIDIA Tesla V100 32G及以上
39B级模型,显存69GB+,推荐 NVIDIA A100 80G及以上
72B级模型,显存145GB+,需要专业级显卡或者多卡叠加

(默认安装的是 ChatGLM-6B 模型,中端型显卡可以直接本地运行)

本次演示环境系统: Windows 11   、GPU: RTX 4090 24GB、 CPU: i7-12700

当然如果你需要运行更大的模型,比如你想要顺利在GPU运行本地模型的 FP16 版本,你至少需要以下的硬件配置,来保证在我们框架下能够实现 稳定连续对话

  • ChatGLM3-6B & LLaMA-7B-Chat 等 7B模型
    • 最低显存要求: 14GB
    • 推荐显卡: RTX 4080
  • Qwen-14B-Chat 等 14B模型
    • 最低显存要求: 30GB
    • 推荐显卡: V100
  • Yi-34B-Chat 等 34B模型
    • 最低显存要求: 69GB
    • 推荐显卡: A100
  • Qwen-72B-Chat 等 72B模型
    • 最低显存要求: 145GB
    • 推荐显卡:多卡 A100 以上

5.安装过程中出现的常见错误和解决方法:

1.提示 ModuleNotFoundError: No module named ‘pwd’,这个模块是Unix系统上的,Windows 上并没有,所以我们需要进行降级:

pip install langchain-community==0.0.19

2.提示错误信息 | ERROR | stderr | AssertionError: Torch not compiled with CUDA enabled

说明你没有安装CUDA环境或者你安装的PyTorch版本不支持CUDA,解决方法:

pip uninstall torch torchvision torchaudio

通过上面的命令进行卸载后重新安装官方给出的正确版本,安装命令如下:

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

3.安装依赖 wavedrom 时报错 (setuptools_scm)的解决方法:

pip install setuptools_scm

安装后再重新安装依赖环境

 

 

THE END
喜欢就支持一下吧
点赞2177 分享
NBA史上最离奇的悬案!深海杀人,篮球巨星和女友被抛尸南太平洋,时隔18年,尸体仍未找到!-零度博客

NBA史上最离奇的悬案!深海杀人,篮球巨星和女友被抛尸南太平洋,时隔18年,尸体仍未找到!

NBA史上最离奇的悬案!深海杀人,篮球巨星和女友被抛尸南太平洋,时隔18年,尸体仍未找到! https://www.youtube.com/watch?v=JmstsL5D6u4
Firefox 的新服务为您提供了一个刻录机电话号码以减少垃圾邮件-零度博客

Firefox 的新服务为您提供了一个刻录机电话号码以减少垃圾邮件

Firefox Relay 是一项 Mozilla 服务,旨在通过向您提供虚拟电子邮件地址来隐藏您的“真实”电子邮件地址,它正在扩展到提供虚拟电话号码。在一篇博文中, Mozilla 产品经理 Tony Amaral-Cinotto...
admin的头像-零度博客admin
1.6W+2250
深度精简 Edge浏览器!速度更快,去除首页垃圾信息、自定义标签页、把必应改为 Google 搜索! | 零度解说-零度博客

深度精简 Edge浏览器!速度更快,去除首页垃圾信息、自定义标签页、把必应改为 Google 搜索! | 零度解说

https://youtu.be/H5ZISBFrPAA ============== 2款插件下载 :https://www.lingdu80.com/11150.html
admin的头像-零度博客admin
1.7W+1683
罗福莉是Deepseek核心开发人员吗? 有疑问可以直接问各大主流AI-零度博客

罗福莉是Deepseek核心开发人员吗? 有疑问可以直接问各大主流AI

今天发布有关罗福莉的相关视频,看到部分观众在质疑她的成分,其实有疑问是对的,但是在怀疑的同时需要自身去探索正确答案,不要轻易相信哪些小道消息!有什么问题直接问各大主流的AI就可以了,...
免费创建自己的私人云盘!在家就可以搞定!安全又实用 | 零度解说-零度博客
炸翻全场!英伟达 CES 2025 发布会亮点回顾 :RTX50 显卡性能及价格,微型 AI 超算 + 中文直播内容全揭秘! | 零度解说-零度博客
hiveos 通过NBminer / T-Rex 等挖矿软件的超频设置-零度博客

hiveos 通过NBminer / T-Rex 等挖矿软件的超频设置

  1.hiveos 系统:【点击注册】 , 优惠码:code10 (注册输入可获得10美金余额) 2.驱动升级命令: nvidia-driver-update --list https://us.download.nvidia.com/XFree86/Linux-x86_64/5...
admin的头像-零度博客admin
1.7W+2250
谷歌 Gemini 大杀器正式发布!Pro、Pro Visual 多模态AI,比想象更惊喜!免费用 |  零度解说-零度博客

谷歌 Gemini 大杀器正式发布!Pro、Pro Visual 多模态AI,比想象更惊喜!免费用 | 零度解说

https://youtu.be/MuuDw0_nvtM ====== 免费注册链接:https://www.lingdu80.com/11114.html
admin的头像-零度博客admin
1.7W+1682
真香!NVIDIA Chat with RTX,本地一键部署私密的AI聊天机器人! | 零度解说-零度博客

真香!NVIDIA Chat with RTX,本地一键部署私密的AI聊天机器人! | 零度解说

https://youtu.be/Hwn49QenXWg ------------------------------------- NVIDIA Chat with RTX 安装包下载:https://www.lingdu80.com/11615.html
admin的头像-零度博客admin
1.3W+1527