以下是在Windows 10系统上本地部署DeepSeek的具体步骤,支持简单对话、联网搜索及Web对话界面:
一、环境准备
- 硬件需求
- 最低配置:8GB内存 + 4GB显存(如NVIDIA GTX 1050),可运行1.5B参数模型311。
- 推荐配置:16GB内存 + 8GB显存(如RTX 4060),支持7B或8B模型流畅运行17。
- 联网搜索功能:需额外配置代理或API接口(本地模型默认不支持联网,需结合第三方工具实现)。
- 软件安装
- Ollama:从官网下载Windows版本并安装(默认路径为C盘,需预留至少5GB空间)147。
- Docker Desktop(可选):用于部署Web交互界面(如Open WebUI)511。
- Chatbox(可选):图形化对话客户端910。
二、安装与配置步骤
1. 安装Ollama并下载模型
- 访问Ollama官网下载Windows安装包,双击完成安装79。
- 打开PowerShell(管理员权限),输入以下命令下载模型(以7B为例):
- bash
- 复制
- ollama pull deepseek-r1:7b
- 等待下载完成(时间取决于网络速度和模型大小)211。
2. 运行模型
- 在PowerShell中输入以下命令启动模型:
- bash
- 复制
- ollama run deepseek-r1:7b
- 即可在命令行界面进行简单对话测试79。
3. 配置Web对话界面
- 方案一:使用Open WebUI(支持联网扩展)
- 安装Docker Desktop,启动后确保服务运行5。
- 在PowerShell中运行以下命令部署Open WebUI:
- bash
- 复制
- docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
- 若使用NVIDIA显卡,替换为支持CUDA的版本5。
- 浏览器访问 http://localhost:3000,选择Ollama API并绑定模型,即可通过网页交互5。
- 方案二:使用Chatbox(简化版图形界面)
- 下载并安装Chatbox客户端910。
- 打开设置,选择“Ollama API”,输入模型名称(如deepseek-r1:7b),保存后即可使用图形化界面对话9。
4. 联网搜索扩展(需自定义开发)
- 本地模型默认不支持联网,需通过以下方式实现:
- 调用第三方API(如搜索引擎API)并集成到对话流程中。
- 使用LangChain等框架结合本地模型与网络工具5。
三、注意事项
- 模型选择:显存不足时可能需切换至低参数模型(如1.5B),或启用CPU模式(性能下降)311。
- 存储空间:大模型(如14B)需20GB以上空间,建议提前清理C盘29。
- 性能优化:
- 启用GPU加速需安装NVIDIA驱动及CUDA工具包8。
- 使用RTX 50系列显卡(如RTX 5090)可显著提升推理速度111。
四、常见问题解决
- 下载中断:重新运行命令或更换网络环境11。
- 显存不足:降低模型参数或关闭其他占用显存的程序37。
- 服务启动失败:检查Docker配置或重新安装Ollama5
DeepSeek 本地化部署后,可以通过以下几种方式实现联网搜索功能:
1. 使用 Open WebUI
Open WebUI 是一个基于 Docker 的前端界面,支持联网搜索功能。以下是具体步骤:
- 安装 Docker:
- 访问 Docker 官网下载并安装 Docker:Docker 官网 。
- 安装 Open WebUI:
- 在终端中运行以下命令:
- bash复制
- docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
- 访问 http://localhost:3000/auth 创建管理员账号,然后进入 Open WebUI 界面 。
- 启用联网搜索:
- 在管理员面板 http://localhost:3000/admin/settings 中,打开联网搜索功能。
- 如果有搜索引擎的 API,可以自行设置;否则可以选择免费的 DuckDuckGo 。
- 在聊天界面的左下角点击 + 按钮,选择联网搜索即可 。
2. 使用 Page Assist 插件
Page Assist 是一个浏览器插件,支持本地 AI 模型的联网搜索功能。以下是具体步骤:
- 安装 Page Assist 插件:
- 打开 Chrome 浏览器,访问 Chrome Web Store,搜索并安装 "Page Assist - 本地 AI 模型的 Web UI" 插件 。
- 配置 Page Assist:
- 点击浏览器右上角的 Page Assist 图标,进入设置页面。
- 在 "RAG 配置" 中,选择 DeepSeek-R1 模型,并保存配置 。
- 在主界面中选择 DeepSeek-R1 模型,打开聊天界面的联网搜索开关 。
- 使用联网搜索:
- 在聊天界面中提问时,Page Assist 会自动调用联网搜索功能,获取最新的信息 。
3. 使用 Dify 部署
Dify 是一个支持私有知识库、智能体和联网搜索的平台。以下是具体步骤:
- 克隆 Dify 代码仓库:
- bash复制
- git clone https://github.com/langgenius/dify.git
- 启动 Dify:
- 进入 Dify 根目录,运行以下命令:
- bash复制
- cd dify make build-all
- 进入 Docker 目录并启动容器:
- bash复制
- cd dify/docker docker compose up -d
- 配置联网搜索:
- 在浏览器中访问 http://127.0.0.1,进入 Dify 的首页。
- 在 Dify 的设置中,配置联网搜索功能,支持私有知识库和智能体 。
4. 使用 Ollama 和 vLLM
Ollama 和 vLLM 是常用的本地模型推理工具,支持联网搜索功能。以下是具体步骤:
- 安装 Ollama:
- 下载并安装 Ollama:Ollama 官网 。
- 下载 DeepSeek-R1 模型:
- 在 Ollama 的模型列表中,选择 DeepSeek-R1 模型并下载,例如 deepseek-r1:7b 。
- 运行模型:
- 在终端中运行以下命令:
- bash复制
- ollama run deepseek-r1:7b
- 启用联网搜索:
- 在 Ollama 的设置中,打开联网搜索功能,可以选择免费的 DuckDuckGo 搜索引擎 。
通过以上方法,你可以在 DeepSeek 本地化部署后实现联网搜索功能,获取最新的信息和知识。