878 字
4 分钟
通过 Open-UI 在 Web 端使用 Ollama API

接前面几篇文章,很多小伙伴安装 Ollama 并部署模型后没有好方法与好友共享本地部署的模型(Ollama 官方在本地软件有可视化界面与 AI 聊天),我们可以在本地搭建一个 Web 端用于和好友共享当前喜欢的无审查 AI 模型 😋

1. 安装 Docker#

首先,你需要在 Windows 上安装 Docker。以下是安装的步骤:

  1. 下载 Docker Desktop:访问 Docker 官方下载页面 Docker Desktop 下载
  2. 安装 Docker:下载并运行安装程序,按照提示完成安装。安装过程中,系统可能会要求启用 WSL 2(Windows Subsystem for Linux)。确保启用它以便 Docker 可以正常运行(安装成功后打开桌面上的 Docker Desktop 图标会提示安装 Linux 子系统)。
  3. 启动 Docker:安装完成后,启动 Docker Desktop,系统托盘会显示 Docker 图标,表示 Docker 已成功运行。
  4. 确认安装:打开 cmd 或 PowerShell,输入以下命令确认 Docker 是否安装成功:
Terminal window
docker --version

如果 Docker 安装成功,你将看到 Docker 的版本信息。

2. 配置 Docker#

在运行 Docker 容器之前,确保 Docker 的配置正确。你需要启用 “虚拟化”(Hyper-V)和 “WSL 2” 功能,这些功能一般会在 Docker Desktop 安装过程中自动设置。

  • 如果你使用的是 Windows 10/11 专业版或企业版,Docker 默认会启用 Hyper-V。
  • 对于 Windows Home 版本,Docker 会使用 WSL 2 来运行容器。

你可以通过 Docker Desktop 的设置菜单,检查和配置这些选项。

3. 拉取并运行 Open-WebUI 容器#

接下来,我们将使用 Docker 来运行 Open-WebUI。以下是具体的操作步骤:

3.1 拉取 Open-WebUI 镜像#

在 Docker 中运行 Open-WebUI,首先需要从 Docker Hub 拉取镜像。打开命令行,运行以下命令:

Terminal window
docker pull ghcr.io/open-webui/open-webui:main

这将从 GitHub Container Registry 拉取 Open-WebUI 的最新镜像。

3.2 运行 Open-WebUI 容器#

接下来,你可以运行 Open-WebUI 容器。使用以下命令启动 Open-WebUI:

Terminal window
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

命令参数解释:

  • -d:在后台运行容器(守护模式)。
  • -p 3000:8080:将容器内的 8080 端口映射到本地的 3000 端口,允许通过 http://localhost:3000 访问 Open-WebUI。
  • —add-host=host.docker.internal:确保容器能够访问主机上的网络。
  • -v open-webui:/app/backend/data:将本地的 open-webui 卷映射到容器内的 /app/backend/data 目录,用于持久化存储数据。
  • —name open-webui:为容器指定一个名称,便于管理。
  • —restart always:配置容器在 Docker 重启后自动重启。

执行完该命令后,Open-WebUI 将在后台启动,并且可以通过浏览器访问 http://localhost:3000 进行使用。

4. 验证 Open-WebUI 是否运行成功#

运行容器后,你可以通过以下命令检查容器的状态:

Terminal window
docker ps

如果容器成功启动,你将看到类似以下的输出:

Terminal window
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
a1b2c3d4e5f6 ghcr.io/open-webui/open-webui:main "docker-entrypoint.sh…" 2 minutes ago Up 2 minutes 0.0.0.0:3000->8080/tcp open-webui

现在,你可以通过浏览器访问 http://localhost:3000 来访问 Open-WebUI。

创建一个管理员账户后即可在列表选择模型使用。

如果要远程访问可以用内网穿透软件将当前设备 3000 端口映射到公网。

5. 容器管理#

5.1 停止容器#

如果需要停止容器,可以使用以下命令:

Terminal window
docker stop open-webui

5.2 删除容器#

如果需要删除容器,可以使用以下命令:

Terminal window
docker rm open-webui

5.3 删除镜像#

如果你不再需要该镜像,可以使用以下命令删除镜像:

Terminal window
docker rmi ghcr.io/open-webui/open-webui:main
通过 Open-UI 在 Web 端使用 Ollama API
https://blog.obve.cn/posts/15348/
作者
Alec
发布于
2026-01-03
许可协议
CC BY-NC-SA 4.0