用免费开源的DeepSeek-R1,轻松搭建你的专属AI知识库

Spread the love

为什么选择 DeepSeek-R1?

DeepSeek-R1 究竟有何优势,值得我们选择并本地部署呢?

  • 完全免费且开源: DeepSeek-R1 不仅免费供个人和商业使用,还开放了源代码。 这意味着您可以自由地研究、修改和定制模型,真正掌握AI技术的主动权。
  • 媲美GPT-3.5的强大性能: DeepSeek-R1 在多项评测中展现出比肩甚至超越 GPT-3.5 的性能。 无论是自然语言理解文本生成代码编写还是复杂推理,DeepSeek-R1 都能提供出色的表现。
  • 支持本地CPU/GPU部署,离线可用: DeepSeek-R1 支持在本地电脑上部署,无论是 WindowsMac 还是 Linux 系统, 只要配备一定的硬件,就能轻松运行。 无需联网即可使用,更好地保护您的数据安全和隐私
  • 秒建私人知识库,打造专属AI助理: 结合 Ollama 等工具,DeepSeek-R1 可以快速搭建私人知识库。 您可以将个人文档学习资料工作笔记等导入知识库,让AI模型理解您的专属数据,成为您高效的私人AI助理

DeepSeek-R1 本地部署教程:五分钟快速上手

安装 Ollama

  • Ollama 是一款强大的开源模型运行框架,可以简化大模型的部署和管理。 DeepSeek-R1 的本地部署正是基于 Ollama。
  • 访问 Ollama 官方网站 (https://ollama.com/), 根据您的操作系统 ( MacWindowsLinux ) 下载并安装 Ollama。 安装过程非常简单,只需按照提示操作即可。

1、下载 DeepSeek-R1 模型

  • 打开终端或命令行工具,输入以下命令即可一键下载 DeepSeek-R1 模型:
    ollama pull deepseek-r1

    2、运行 DeepSeek-R1,开始对话

    • 模型下载完成后,继续在终端或命令行中输入以下命令,即可启动 DeepSeek-R1 并开始与AI对话:
    ollama run deepseek-r1

    现在,您就可以像与 ChatGPT 对话一样,与本地部署的 DeepSeek-R1 进行交流了。 您可以尝试提出各种问题,体验 DeepSeek-R1 强大的语言能力。

      进阶应用: 搭建私人知识库,打造专属AI助理

      DeepSeek-R1 的强大之处不仅在于其卓越的语言能力,更在于其支持本地部署,为我们构建 私人知识库 提供了无限可能。 通过搭建私人知识库,您可以让 DeepSeek-R1 更好地理解和处理您的个人数据,成为真正属于您自己的 AI助理,应用于个人学习、工作文档管理、智能客服等多种场景。

      在众多知识库搭建工具中,AnythingLLM 以其开源免费易于使用功能强大等特点,成为与 DeepSeek-R1 搭配搭建私人知识库的理想选择。 AnythingLLM 可以帮助您轻松地将各种文档 (例如: PDF, TXT, Markdown, Word 等) 导入知识库,并利用 DeepSeek-R1 强大的语言模型进行问答和信息检索。

      AnythingLLM 简介: 你的开源知识库助手

      AnythingLLM 是一款开源LLM (大型语言模型) 驱动的知识库平台。 它提供了一个用户友好的界面,让您可以轻松地:

      • 导入多种文档格式: 支持 PDF, TXT, Markdown, Word, CSV, EPUB, HTML 等多种常见文档格式。
      • 文档分块和向量化: 自动将文档分块,并使用嵌入模型 (Embedding Model) 将文本转换为向量,为高效的语义搜索和问答奠定基础。
      • 多种LLM模型支持: 可以对接多种 LLM 模型,包括 OpenAI, DeepSeek-R1, Mistral, 本地 Ollama 模型 等。 本文将重点介绍如何与本地部署的 DeepSeek-R1 模型配合使用。
      • 用户友好的Web界面: 提供简洁直观的 Web 界面,方便用户管理知识库、上传文档、进行问答等操作。
      • 免费开源,本地部署: AnythingLLM 完全开源免费,您可以将其本地部署,完全掌控您的数据和知识库。

      AnythingLLM 安装教程: 轻松部署你的知识库平台

      AnythingLLM 的安装过程相对简单,您可以根据以下步骤进行部署:

      1. 环境准备
        • Node.js 和 npm (或 yarn): AnythingLLM 基于 Node.js 开发,需要您安装 Node.js 和 npm (或 yarn) 包管理器。 请访问 Node.js 官网 (https://nodejs.org/) 下载并安装适合您操作系统的版本。 安装 Node.js 时,通常会默认安装 npm。
        • Docker (可选,推荐): 如果您希望更快速、更便捷地部署 AnythingLLM, 推荐使用 Docker 进行容器化部署。 Docker 可以帮助您隔离环境,简化安装和配置过程。 请访问 Docker 官网 (https://www.docker.com/) 下载并安装 Docker Desktop。
      2. 下载 AnythingLLM 代码
      git clone https://github.com/Mintplex-Labs/anything-llm.git
      cd anything-llm

      3. 安装依赖

      • 进入 anything-llm 代码目录,运行以下命令安装项目依赖:
      npm install  # 或者使用 yarn install

      4. 配置环境变量

      • 复制 .env.example 文件并重命名为 .env。打开 .env 文件,根据您的需求配置环境变量。 以下是一些关键配置项,您需要根据实际情况进行修改:
      # 端口配置
      PORT=3000
      
      # 向量数据库配置 (AnythingLLM 支持多种向量数据库,例如 LanceDB, Chroma, Pinecone 等。  这里以 LanceDB 为例,本地文件存储,无需额外配置)
      VECTOR_DB=lance
      DATABASE_URL=./.lanceDB
      
      # LLM 模型配置 (这里配置为 Ollama,对接本地 DeepSeek-R1 模型)
      LLM_PROVIDER=ollama
      OLLAMA_BASE_URL=http://localhost:11434 # Ollama 默认 API 地址 (如果 Ollama 未运行在本地或端口不同,请修改)
      OLLAMA_MODEL_NAME=deepseek-r1 #  指定 Ollama 中运行的 DeepSeek-R1 模型名称 (与您之前 pull 的模型名称一致)
      
      #  (可选)  如果使用 OpenAI 等其他 LLM Provider,  还需要配置相应的 API Key 等信息。  具体请参考 .env.example 文件和 AnythingLLM 文档。

      5. 启动 AnythingLLM

      • 配置完成后,在 anything-llm 代码目录下,运行以下命令启动 AnythingLLM 服务:
      npm run dev  #  开发模式启动 (方便调试)
      # 或者使用 npm start  生产模式启动
      • 等待服务启动完成。 默认情况下, AnythingLLM 将在 http://localhost:3000 启动 Web 界面。

      6. 访问 AnythingLLM Web 界面

      • 打开浏览器,访问 http://localhost:3000, 即可进入 AnythingLLM 的 Web 界面。 首次访问可能需要创建管理员账号。

        AnythingLLM 使用方法: 快速上手你的知识库

        成功安装并启动 AnythingLLM 后,您就可以开始构建和使用您的私人知识库了。 以下是 AnythingLLM 的基本使用方法:

        1. 创建工作区 (Workspace)
          • 在 AnythingLLM Web 界面,点击 “Create Workspace” 按钮,创建一个新的工作区。 您可以为工作区命名,例如 “我的个人知识库“、 “工作项目资料” 等。 每个工作区相当于一个独立的知识库,您可以创建多个工作区来管理不同的知识库。
        2. 上传文档
          • 进入您创建的工作区,点击 “Documents” 选项卡,然后点击 “Upload Documents” 按钮。
          • 选择您要导入的文档文件 (支持多种格式,例如 PDF, TXT, Markdown, Word 等), AnythingLLM 会自动上传并处理文档。
          • 您可以批量上传多个文档, AnythingLLM 会自动将它们添加到您的知识库中。
        3. 开始问答
          • 文档上传完成后,切换到 “Chat” 选项卡。 在输入框中输入您的问题,例如 “我的个人知识库里有哪些关于 DeepSeek-R1 的文档?“、 “请总结一下这篇文档的主要内容” 等。
          • AnythingLLM 会利用 DeepSeek-R1 模型,基于您的知识库内容,给出相应的答案。
        4. 管理知识库
          • 在 “Documents” 选项卡中,您可以查看已上传的文档列表,删除不需要的文档,或者重新上传更新后的文档。
          • 您还可以在 “Workspaces” 选项卡中,管理您的工作区,例如重命名删除工作区等。
          • AnythingLLM 还提供了用户管理模型配置向量数据库管理等更多高级功能,您可以根据需要进行探索和配置。 具体请参考 AnythingLLM 的官方文档和 GitHub 仓库。

          Leave a comment Cancel reply

          Exit mobile version