用免费开源的DeepSeek-R1,轻松搭建你的专属AI知识库
为什么选择 DeepSeek-R1?
DeepSeek-R1 究竟有何优势,值得我们选择并本地部署呢?
- 完全免费且开源: DeepSeek-R1 不仅免费供个人和商业使用,还开放了源代码。 这意味着您可以自由地研究、修改和定制模型,真正掌握AI技术的主动权。
- 媲美GPT-3.5的强大性能: DeepSeek-R1 在多项评测中展现出比肩甚至超越 GPT-3.5 的性能。 无论是自然语言理解、文本生成、代码编写还是复杂推理,DeepSeek-R1 都能提供出色的表现。
- 支持本地CPU/GPU部署,离线可用: DeepSeek-R1 支持在本地电脑上部署,无论是 Windows、 Mac 还是 Linux 系统, 只要配备一定的硬件,就能轻松运行。 无需联网即可使用,更好地保护您的数据安全和隐私。
- 秒建私人知识库,打造专属AI助理: 结合 Ollama 等工具,DeepSeek-R1 可以快速搭建私人知识库。 您可以将个人文档、学习资料、工作笔记等导入知识库,让AI模型理解您的专属数据,成为您高效的私人AI助理。
DeepSeek-R1 本地部署教程:五分钟快速上手
安装 Ollama

- Ollama 是一款强大的开源模型运行框架,可以简化大模型的部署和管理。 DeepSeek-R1 的本地部署正是基于 Ollama。
- 访问 Ollama 官方网站 (https://ollama.com/), 根据您的操作系统 ( Mac、 Windows 或 Linux ) 下载并安装 Ollama。 安装过程非常简单,只需按照提示操作即可。
1、下载 DeepSeek-R1 模型
- 打开终端或命令行工具,输入以下命令即可一键下载 DeepSeek-R1 模型:
ollama pull deepseek-r1
2、运行 DeepSeek-R1,开始对话
- 模型下载完成后,继续在终端或命令行中输入以下命令,即可启动 DeepSeek-R1 并开始与AI对话:
ollama run deepseek-r1
现在,您就可以像与 ChatGPT 对话一样,与本地部署的 DeepSeek-R1 进行交流了。 您可以尝试提出各种问题,体验 DeepSeek-R1 强大的语言能力。
进阶应用: 搭建私人知识库,打造专属AI助理

DeepSeek-R1 的强大之处不仅在于其卓越的语言能力,更在于其支持本地部署,为我们构建 私人知识库 提供了无限可能。 通过搭建私人知识库,您可以让 DeepSeek-R1 更好地理解和处理您的个人数据,成为真正属于您自己的 AI助理,应用于个人学习、工作文档管理、智能客服等多种场景。
在众多知识库搭建工具中,AnythingLLM 以其开源免费、易于使用、功能强大等特点,成为与 DeepSeek-R1 搭配搭建私人知识库的理想选择。 AnythingLLM 可以帮助您轻松地将各种文档 (例如: PDF, TXT, Markdown, Word 等) 导入知识库,并利用 DeepSeek-R1 强大的语言模型进行问答和信息检索。
AnythingLLM 简介: 你的开源知识库助手
AnythingLLM 是一款开源的 LLM (大型语言模型) 驱动的知识库平台。 它提供了一个用户友好的界面,让您可以轻松地:
- 导入多种文档格式: 支持 PDF, TXT, Markdown, Word, CSV, EPUB, HTML 等多种常见文档格式。
- 文档分块和向量化: 自动将文档分块,并使用嵌入模型 (Embedding Model) 将文本转换为向量,为高效的语义搜索和问答奠定基础。
- 多种LLM模型支持: 可以对接多种 LLM 模型,包括 OpenAI, DeepSeek-R1, Mistral, 本地 Ollama 模型 等。 本文将重点介绍如何与本地部署的 DeepSeek-R1 模型配合使用。
- 用户友好的Web界面: 提供简洁直观的 Web 界面,方便用户管理知识库、上传文档、进行问答等操作。
- 免费开源,本地部署: AnythingLLM 完全开源免费,您可以将其本地部署,完全掌控您的数据和知识库。
AnythingLLM 安装教程: 轻松部署你的知识库平台
AnythingLLM 的安装过程相对简单,您可以根据以下步骤进行部署:
- 环境准备
- Node.js 和 npm (或 yarn): AnythingLLM 基于 Node.js 开发,需要您安装 Node.js 和 npm (或 yarn) 包管理器。 请访问 Node.js 官网 (https://nodejs.org/) 下载并安装适合您操作系统的版本。 安装 Node.js 时,通常会默认安装 npm。
- Docker (可选,推荐): 如果您希望更快速、更便捷地部署 AnythingLLM, 推荐使用 Docker 进行容器化部署。 Docker 可以帮助您隔离环境,简化安装和配置过程。 请访问 Docker 官网 (https://www.docker.com/) 下载并安装 Docker Desktop。
- 下载 AnythingLLM 代码
- 访问 AnythingLLM GitHub 仓库 (https://github.com/Mintplex-Labs/anything-llm), 将 AnythingLLM 的代码克隆到本地。 您可以使用 Git 命令行工具,或者直接在 GitHub 页面下载 ZIP 压缩包。
git clone https://github.com/Mintplex-Labs/anything-llm.git
cd anything-llm
3. 安装依赖
- 进入
anything-llm
代码目录,运行以下命令安装项目依赖:
npm install # 或者使用 yarn install
4. 配置环境变量
- 复制
.env.example
文件并重命名为.env
。打开.env
文件,根据您的需求配置环境变量。 以下是一些关键配置项,您需要根据实际情况进行修改:
# 端口配置
PORT=3000
# 向量数据库配置 (AnythingLLM 支持多种向量数据库,例如 LanceDB, Chroma, Pinecone 等。 这里以 LanceDB 为例,本地文件存储,无需额外配置)
VECTOR_DB=lance
DATABASE_URL=./.lanceDB
# LLM 模型配置 (这里配置为 Ollama,对接本地 DeepSeek-R1 模型)
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://localhost:11434 # Ollama 默认 API 地址 (如果 Ollama 未运行在本地或端口不同,请修改)
OLLAMA_MODEL_NAME=deepseek-r1 # 指定 Ollama 中运行的 DeepSeek-R1 模型名称 (与您之前 pull 的模型名称一致)
# (可选) 如果使用 OpenAI 等其他 LLM Provider, 还需要配置相应的 API Key 等信息。 具体请参考 .env.example 文件和 AnythingLLM 文档。
5. 启动 AnythingLLM
- 配置完成后,在
anything-llm
代码目录下,运行以下命令启动 AnythingLLM 服务:
npm run dev # 开发模式启动 (方便调试)
# 或者使用 npm start 生产模式启动
- 等待服务启动完成。 默认情况下, AnythingLLM 将在
http://localhost:3000
启动 Web 界面。
6. 访问 AnythingLLM Web 界面
- 打开浏览器,访问
http://localhost:3000
, 即可进入 AnythingLLM 的 Web 界面。 首次访问可能需要创建管理员账号。
AnythingLLM 使用方法: 快速上手你的知识库
成功安装并启动 AnythingLLM 后,您就可以开始构建和使用您的私人知识库了。 以下是 AnythingLLM 的基本使用方法:
- 创建工作区 (Workspace)
- 在 AnythingLLM Web 界面,点击 “Create Workspace” 按钮,创建一个新的工作区。 您可以为工作区命名,例如 “我的个人知识库“、 “工作项目资料” 等。 每个工作区相当于一个独立的知识库,您可以创建多个工作区来管理不同的知识库。
- 上传文档
- 进入您创建的工作区,点击 “Documents” 选项卡,然后点击 “Upload Documents” 按钮。
- 选择您要导入的文档文件 (支持多种格式,例如 PDF, TXT, Markdown, Word 等), AnythingLLM 会自动上传并处理文档。
- 您可以批量上传多个文档, AnythingLLM 会自动将它们添加到您的知识库中。
- 开始问答
- 文档上传完成后,切换到 “Chat” 选项卡。 在输入框中输入您的问题,例如 “我的个人知识库里有哪些关于 DeepSeek-R1 的文档?“、 “请总结一下这篇文档的主要内容” 等。
- AnythingLLM 会利用 DeepSeek-R1 模型,基于您的知识库内容,给出相应的答案。
- 管理知识库
- 在 “Documents” 选项卡中,您可以查看已上传的文档列表,删除不需要的文档,或者重新上传更新后的文档。
- 您还可以在 “Workspaces” 选项卡中,管理您的工作区,例如重命名、删除工作区等。
- AnythingLLM 还提供了用户管理、模型配置、向量数据库管理等更多高级功能,您可以根据需要进行探索和配置。 具体请参考 AnythingLLM 的官方文档和 GitHub 仓库。
Comments