想要在本地运行大火的 DeepSeek 模型?本文将带你一步步完成从 Ollama 安装到模型下载,再到 Web 界面配置的全过程。
1. 下载 Ollama
首先访问 Ollama 官方网站,选择 Windows 版本安装包并下载。
NOTE注意:下载地址托管于 GitHub,国内网络环境可能下载较慢或需要科学上网。
2. 安装 Ollama
为了更好地管理磁盘空间,建议不要直接双击安装(默认会装在 C 盘)。我们提供两种方式,强烈推荐方式一。
🥪 方式一:命令行安装(推荐,可自定义目录)
这种方式可以将软件安装到 D 盘或其他盘符,避免占用 C 盘空间。
- 找到下载好的安装包。
- 在文件夹空白处右键 -> 在终端中打开(或以管理员身份打开 CMD,切换到安装包所在目录)。
- 执行以下命令(假设安装到
D:\Program\Ollama):
OllamaSetup.exe /DIR="D:\Program\Ollama"- 点击弹出的安装界面中的 Install 即可。
- 安装完成后,Ollama 会自动启动,请在任务栏右下角图标上右键选择**“Quit Ollama”**先退出,以便后续配置。
🍞 方式二:双击安装(不推荐)
如果你不在意 C 盘空间(约占用 4.56 GB),可以直接双击安装包。
- 双击
OllamaSetup.exe,直接点击 Install。 - 默认安装目录为:
C:\Users\用户名\AppData\Local\Programs\Ollama。 - 安装后同样需要先退出 Ollama。
- 注意:桌面不会生成快捷方式,后续需在开始菜单或系统搜索中启动。
3. (可选)移动程序目录
如果你使用了“方式一”安装,请跳过此步骤。
如果你不小心使用了默认安装,想把程序挪到 D 盘:
- 将
C:\Users\用户名\AppData\Local\Programs\Ollama整个文件夹剪切至目标目录,例如D:\Program\Ollama。 - 打开系统 “环境变量” 设置。
- 编辑 用户变量 中的
Path,将其中指向旧目录的路径修改为新的目录(D:\Program\Ollama)。
4. 验证安装
打开 CMD(命令提示符)或 PowerShell,执行以下命令:
ollama -v如果显示版本号(例如 ollama version is 0.5.4),则说明安装核心程序成功。你也可以输入 ollama -h 查看更多支持的命令。
5. 修改模型存储位置(关键步骤)
Ollama 默认将巨大的模型文件下载到 C 盘 (C:\Users\用户名\.ollama\models)。为了防止 C 盘爆红,建议修改此路径。
- 打开系统 “环境变量” 设置。
- 在 用户变量 区域点击 新建:
- 变量名:
OLLAMA_MODELS - 变量值:
D:\Program\Ollama\Models(或者你想要存放模型的任何路径)
- 点击确定保存。
WARNING修改环境变量后,建议重启电脑或重启 CMD 窗口以使配置生效。
6. 下载 DeepSeek 模型
- 访问 Ollama Library,搜索并进入
deepseek-r1页面。 - 选择适合你电脑配置的版本(例如显存较小可选
1.5b或7b,显存大可选32b)。 - 复制页面上的命令,在 CMD 中执行:
ollama run deepseek-r1:1.5b- 此命令会自动下载并运行模型。
- 请确保此时执行命令的 CMD 是配置好环境变量后新开的窗口,这样模型才会下载到你设置的 D 盘路径。
- 如果下载速度不稳定,可以按
Ctrl+C终止,然后重新运行命令,它会支持断点续传。
7. 验证 DeepSeek 模型
下载完毕后,系统会自动进入对话模式。你可以直接输入问题进行测试。
- 进入对话:
ollama run deepseek-r1:1.5b- 查看已安装模型:
ollama list- 退出对话:
在对话框中输入
/bye并回车。
8. 使用 Web UI 进行对话
黑底白字的命令行虽然酷,但日常使用还是图形界面(Web UI)更方便。这里推荐两个方案。
方案一:Chrome 插件 “Page Assist”
这是一个浏览器插件,无需额外部署服务,安装即用。
- 在 Chrome 应用商店搜索并安装 Page Assist - 本地 AI 模型的 Web UI。
- 安装后固定插件图标,并点击打开。
- 如果提示无法连接,请确保后台已经启动了 Ollama。
- 配置:
- 点击右上角设置图标 -> Language 选择 “简体中文”。
- 在主界面下方的模型选择器中,选择
deepseek-r1:1.5b。
- 现在你可以像使用 ChatGPT 一样与 DeepSeek 对话了!
方案二:在线 Web UI “Chatbox AI”
- 配置 Ollama 允许跨域(重要): 为了让网页版能连接本地的 Ollama,需要添加两个环境变量:
-
打开环境变量 -> 用户变量 -> 新建:
-
变量名:
OLLAMA_HOST| 变量值:0.0.0.0 -
变量名:
OLLAMA_ORIGINS| 变量值:* -
重启 Ollama 使配置生效。
- 访问 Chatbox AI Web 版。
- 基础设置:
- 点击 Settings -> DISPLAY -> Language 选择 “简体中文” -> 保存。
- 连接模型:
- 点击 设置 -> 模型提供方 选择 “OLLAMA API”。
- API 域名默认即可(
http://localhost:11434)。 - 模型下拉列表中选择
deepseek-r1:1.5b。 - 点击保存。
至此,Ollama 与 DeepSeek R1 的本地部署及 Web UI 配置全部完成!尽情享受你的私人 AI 助手吧。
鲁公网安备37048102006944号