数字信息化时代如何利用AI人工智能节省办公成本与效率?走进AI本地化知识库部署 了解申请流程
AI 本地化知识库部署的申请流程因具体使用的工具和平台不同而有所差异。以 CherryStudio 和 Dify 这两个平台为例,其部署流程如下:
CherryStudio 部署流程:
账号注册:若使用 LaoZhang.ai API 方案,需访问 LaoZhang.ai 注册页面注册账号,登录后在 “API 密钥” 页面创建新的 API 密钥并复制。若使用硅基平台的服务,需去硅基平台注册账号,以获取配置 Embedding 所需的资源,注册成功后会获得 2000W Token。
软件安装:下载安装 CherryStudio 客户端,官网提供了全平台 Mac/Win/Linux 客户端。若采用 Ollama 本地方案,还需访问 Ollama 官网,根据操作系统下载并安装 Ollama。
配置模型服务:如果是使用硅基平台,在硅基平台新建 API 秘钥,在 CherryStudio 客户端左下角点击 “设置”,将 API 秘钥填写进去并检查是否成功。若使用 Ollama 方案,打开 CherryStudio,点击左下角的 “设置” 图标,在 “模型服务” 中,选择并启用 “Ollama”,API 地址通常保持默认的 “http://127.0.0.1:11434”。若使用 LaoZhang.ai API 方案,在 CherryStudio 的 “设置”>“模型服务” 中,选择并启用 “自定义” 或任何一个兼容 OpenAI 的选项,将服务命名为 “LaoZhang.ai”,API 地址填写 “https://api.laozhang.ai/v1”,并粘贴复制的 API 密钥。
添加嵌入式模型:在 CherryStudio 中点击底部的 “管理” 按钮添加嵌入式模型,如 BAAI/bge - m3 等。
创建知识库并添加数据:在 CherryStudio 左侧菜单栏点击 “知识库” 图标,点击 “添加”,输入知识库名称并选择 Embedding 模型。支持添加文件、文件夹目录、网址链接等多种方式添加数据,添加后系统会自动进行向量化处理,当显示绿色 “√” 表示向量化完成。

Dify 部署流程:
部署 Dify 平台:Dify 官方提供了使用 Docker Compose 部署的方式,也可以使用 Rainbond 进行部署。若使用 Rainbond 私有化本地部署,可通过命令 “curl -o install.sh https://get.rainbond.com && bash ./install.sh” 进行安装,等待几分钟后,通过 “http://IP:7070” 访问 Rainbond 并注册登录,通过应用市场一键部署 Dify。
配置 Embedding 模型:使用 Ollama 部署本地的 Embedding 模型,进入 Rainbond 的 Ollama 组件内,进入 Web 终端执行命令 “ollama pull bge - m3”。
在 Dify 中配置模型:进入 Dify 页面后,点击右上角头像 -> 设置 -> 模型供应商,安装 Ollama。分别对接本地的 LLM 和 Text Embedding 模型相关信息,配置系统默认模型。
创建知识库:点击上方的知识库按钮,创建一个新的知识库,上传本地的文档,模型选择配置好的 Embedding 模型,等待所有文档的状态变为可用。
创建聊天助手:创建一个聊天助手应用,添加创建好的知识库,点击右上角的发布,再点击运行,即可进行测试对话。
