零成本搭建本地知识库:DeepSeek保姆级教程
author
阅读:127
2025-02-28 04:59:51
评论:0
在信息爆炸的时代,高效的知识管理成为提升个人和团队生产力的关键。构建一个专属的本地知识库,能够便捷地存储、检索和利用信息,满足个性化需求。然而,对于非技术人员来说,搭建这样的知识库往往面临技术门槛和成本压力。本文将提供一个零成本方案,引导您利用DeepSeek(满血版)轻松搭建属于自己的本地知识库。
一、 获取优刻得模型服务平台密钥Key
首先,您需要访问优刻得(UCloud)的模型服务平台,获取API密钥。具体步骤如下:
- 登录UCloud控制台: https://console.ucloud.cn/
- 找到“模型服务平台”,并进入“体验中心”申请权限。
- 申请通过后,访问 https://console.ucloud.cn/uapi/detail?id=GetUMInferService 获取模型服务Key。点击“发送请求”和“确认发送请求”,在“响应结果”中复制Key的值。
二、 安装Cherry Studio客户端
Cherry Studio是一款强大的AI助手,我们将使用它来连接和管理我们的模型。
- 访问Cherry Studio官网(请自行搜索),下载并安装适用于您操作系统的客户端(本文以Mac版为例)。
三、 添加及配置模型
安装完成后,打开Cherry Studio,进行模型配置:
- 点击左下角的齿轮图标,选择“模型服务”,点击“+添加”。
- 填写提供商名称为“UCloud”,提供商类型选择“OpenAI”,点击“确定”。
- 输入以下信息:
- API密钥:您在步骤一中获取的UCloud Key
- API地址: https://deepseek.modelverse.cn/v1/chat/completions
- 模型名称填写
deepseek-ai/DeepSeek-R1
,点击“添加模型”。 - 点击“检查”并确认连接成功。
- 选择刚添加的
deepseek-ai/DeepSeek-R1
模型为默认模型。 - 点击左侧“助手”图标,测试聊天对话是否正常。
四、 在本地通过Ollama安装bge-m3嵌入模型
为了进一步增强本地知识库的功能,我们将使用Ollama安装bge-m3嵌入模型。
- 访问Ollama官网,下载并安装适用于您操作系统的客户端。
- 打开终端,输入
ollama pull bge-m3
安装模型,等待安装完成。 - 输入
ollama list
验证bge-m3:latest是否已成功安装。
五、 添加知识库
现在,我们将把本地知识库添加到Cherry Studio:
- 在Cherry Studio中,打开“模型服务”,选择Ollama。
- 在API地址框输入
http://localhost:11434/v1/
,点击“添加”。 - 输入模型信息:
bge-m3:latest
,点击“添加模型”。 - 检查Ollama和UCloud模型均已配置正常并开启。
- 点击“添加知识库”,导入您准备好的本地文档(例如,一个包含知识的文本文件)。
- 在聊天界面中,使用自然语言进行提问,测试知识库是否能够正确地返回答案。
通过以上步骤,您就成功地搭建了一个基于DeepSeek的本地知识库,可以利用它高效地管理和利用您的知识资源。 希望本教程能够帮助您快速上手DeepSeek,体验其强大的功能。
声明
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。
发表评论
