手把手教你:Windows + Docker 部署 Open WebUI 访问 本地Ollama

张开发
2026/4/17 15:42:04 15 分钟阅读

分享文章

手把手教你:Windows + Docker 部署 Open WebUI 访问 本地Ollama
一、环境准备已安装 Docker 或 Docker Desktop。Docker 已部署 Ollama 且拉取镜像 Qwen2:0.5b具体教程参考手把手教你WindowsDocker 部署 Ollama Qwen2:7B 纯 CPU 实战二、部署Open WebUI一拉取Open WebUI镜像打开 PowerShell/CMD执行命令docker pull ghcr.io/open-webui/open-webui:main注意Open WebUI 的官方镜像只放在 ghcr.ioGitHub 容器仓库Docker Hub 上没有官方镜像所以必须写完整地址。二启动容器测试打开 PowerShell/CMD执行命令docker run -d --name my-open-webui -p 3000:8080 -e HF_ENDPOINThttps://hf-mirror.com -v D:\Docker\docker_volumes\open_webui_data:/app/backend/data ghcr.io/open-webui/open-webui:main参数说明-d后台运行-p 3000:8080主机 3000 端口映射容器 8080 端口-e HF_ENDPOINThttps://hf-mirror.com通过HF_ENDPOINT 环境变量全局替换 Hugging Face 地址国内最常用的是换成https://hf-mirror.com镜像。三、初次访问打开浏览器输入以下地址http://localhost:3000第一次访问会让你创建管理员账号创建后模型列表里就能看到你已经拉好的模型。例如用户名admin邮箱adminlocal.com密码自己设一个说明这些信息只存在你本地不会联网可以根据自己的习惯来。输入完成之后点击创建管理员账号下次就可以直接使用创建的账号进行登录。点击确认,进入Open WebUI首页。四、模型配置一自动配置机制Open WebUI 默认会自动检测并连接本机运行的 Ollama 服务。默认连接地址本机直接运行http://127.0.0.1:11434Docker 部署 Open WebUIhttp://host.docker.internal:11434自动发现启动后立即尝试连接成功后会在界面显示 Ollama 已有的模型。模型同步Ollama 本地已下载的模型会自动出现在 Open WebUI 的模型选择器中。二手动配置进入 Open WebUI → 右上角 Admin Settings → 管理员面板→设置→外部链接→ Ollama。填入正确的 Ollama API 地址如http://localhost:11434并保存。点击测试连接成功后即可正常使用模型。至此就可以和模型进行交互了。以上就是整体Open WebUI配置过程。五、常见问题Cannot connect to host my-ollama:11434 ssl:default [Name or service not known]Docker Desktop 默认 bridge 网络不支持容器名互访只有自定义网络user-defined network容器名才能 DNS 解析互通。

更多文章