1260 字
6 分钟
本地部署 DeepSeek R1 保姆级教程

想要在本地运行大火的 DeepSeek 模型?本文将带你一步步完成从 Ollama 安装到模型下载,再到 Web 界面配置的全过程。

1. 下载 Ollama#

首先访问 Ollama 官方网站,选择 Windows 版本安装包并下载。

NOTE

注意:下载地址托管于 GitHub,国内网络环境可能下载较慢或需要科学上网。

2. 安装 Ollama#

为了更好地管理磁盘空间,建议不要直接双击安装(默认会装在 C 盘)。我们提供两种方式,强烈推荐方式一

🥪 方式一:命令行安装(推荐,可自定义目录)#

这种方式可以将软件安装到 D 盘或其他盘符,避免占用 C 盘空间。

  1. 找到下载好的安装包。
  2. 在文件夹空白处右键 -> 在终端中打开(或以管理员身份打开 CMD,切换到安装包所在目录)。
  3. 执行以下命令(假设安装到 D:\Program\Ollama):
Terminal window
OllamaSetup.exe /DIR="D:\Program\Ollama"
  1. 点击弹出的安装界面中的 Install 即可。
  2. 安装完成后,Ollama 会自动启动,请在任务栏右下角图标上右键选择**“Quit Ollama”**先退出,以便后续配置。

🍞 方式二:双击安装(不推荐)#

如果你不在意 C 盘空间(约占用 4.56 GB),可以直接双击安装包。

  1. 双击 OllamaSetup.exe,直接点击 Install
  2. 默认安装目录为:C:\Users\用户名\AppData\Local\Programs\Ollama
  3. 安装后同样需要先退出 Ollama。
  4. 注意:桌面不会生成快捷方式,后续需在开始菜单或系统搜索中启动。

3. (可选)移动程序目录#

如果你使用了“方式一”安装,请跳过此步骤。

如果你不小心使用了默认安装,想把程序挪到 D 盘:

  1. C:\Users\用户名\AppData\Local\Programs\Ollama 整个文件夹剪切至目标目录,例如 D:\Program\Ollama
  2. 打开系统 “环境变量” 设置。
  3. 编辑 用户变量 中的 Path,将其中指向旧目录的路径修改为新的目录(D:\Program\Ollama)。

4. 验证安装#

打开 CMD(命令提示符)或 PowerShell,执行以下命令:

Terminal window
ollama -v

如果显示版本号(例如 ollama version is 0.5.4),则说明安装核心程序成功。你也可以输入 ollama -h 查看更多支持的命令。


5. 修改模型存储位置(关键步骤)#

Ollama 默认将巨大的模型文件下载到 C 盘 (C:\Users\用户名\.ollama\models)。为了防止 C 盘爆红,建议修改此路径。

  1. 打开系统 “环境变量” 设置。
  2. 用户变量 区域点击 新建
  • 变量名OLLAMA_MODELS
  • 变量值D:\Program\Ollama\Models (或者你想要存放模型的任何路径)
  1. 点击确定保存。
WARNING

修改环境变量后,建议重启电脑重启 CMD 窗口以使配置生效。


6. 下载 DeepSeek 模型#

  1. 访问 Ollama Library,搜索并进入 deepseek-r1 页面。
  2. 选择适合你电脑配置的版本(例如显存较小可选 1.5b7b,显存大可选 32b)。
  3. 复制页面上的命令,在 CMD 中执行:
Terminal window
ollama run deepseek-r1:1.5b
  • 此命令会自动下载并运行模型。
  • 请确保此时执行命令的 CMD 是配置好环境变量后新开的窗口,这样模型才会下载到你设置的 D 盘路径。
  • 如果下载速度不稳定,可以按 Ctrl+C 终止,然后重新运行命令,它会支持断点续传。

7. 验证 DeepSeek 模型#

下载完毕后,系统会自动进入对话模式。你可以直接输入问题进行测试。

  • 进入对话
Terminal window
ollama run deepseek-r1:1.5b
  • 查看已安装模型
Terminal window
ollama list
  • 退出对话: 在对话框中输入 /bye 并回车。

8. 使用 Web UI 进行对话#

黑底白字的命令行虽然酷,但日常使用还是图形界面(Web UI)更方便。这里推荐两个方案。

方案一:Chrome 插件 “Page Assist”#

这是一个浏览器插件,无需额外部署服务,安装即用。

  1. 在 Chrome 应用商店搜索并安装 Page Assist - 本地 AI 模型的 Web UI
  2. 安装后固定插件图标,并点击打开。
  3. 如果提示无法连接,请确保后台已经启动了 Ollama。
  4. 配置
  • 点击右上角设置图标 -> Language 选择 “简体中文”。
  • 在主界面下方的模型选择器中,选择 deepseek-r1:1.5b
  1. 现在你可以像使用 ChatGPT 一样与 DeepSeek 对话了!

方案二:在线 Web UI “Chatbox AI”#

  1. 配置 Ollama 允许跨域(重要): 为了让网页版能连接本地的 Ollama,需要添加两个环境变量:
  • 打开环境变量 -> 用户变量 -> 新建:

  • 变量名: OLLAMA_HOST | 变量值: 0.0.0.0

  • 变量名: OLLAMA_ORIGINS | 变量值: *

  • 重启 Ollama 使配置生效。

  1. 访问 Chatbox AI Web 版
  2. 基础设置
  • 点击 Settings -> DISPLAY -> Language 选择 “简体中文” -> 保存。
  1. 连接模型
  • 点击 设置 -> 模型提供方 选择 “OLLAMA API”。
  • API 域名默认即可(http://localhost:11434)。
  • 模型下拉列表中选择 deepseek-r1:1.5b
  • 点击保存。

至此,Ollama 与 DeepSeek R1 的本地部署及 Web UI 配置全部完成!尽情享受你的私人 AI 助手吧。

本地部署 DeepSeek R1 保姆级教程
https://blog.obve.cn/posts/72615/
作者
Alec
发布于
2026-01-04
许可协议
CC BY-NC-SA 4.0