什么是 Open WebUI

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,专为完全离线运行而设计。它基于通用标准构建,支持 OllamaOpenAI 兼容协议(特别是 Chat Completions API)。这种协议优先的方法使其成为一个强大的、与供应商无关的 AI 部署解决方案,适用于本地和云端模型。

主要特性

  • 🔒 完全离线运行 - 所有数据都保存在本地,保护隐私安全
  • 🔌 多协议支持 - 同时支持 Ollama 和 OpenAI 兼容协议
  • 🎨 用户友好界面 - 现代化的 Web UI,操作简单直观
  • 🔧 高度可扩展 - 支持自定义主题、品牌定制等功能
  • 🖥️ 跨平台兼容 - 支持 macOS、Linux(x86_64 和 ARM64)、Windows

如何在本地运行 Open WebUI

方式一:使用 Docker 🐳(推荐)

⚠️ 注意:Open WebUI 需要 WebSocket 支持才能正常工作,请确保您的网络配置允许 WebSocket 连接。

如果 Ollama 已在本机运行

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

使用 Nvidia GPU 支持

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

Open WebUI 与 Ollama 捆绑安装

这种方式将 Open WebUI 和 Ollama 打包在一个容器中,一条命令即可完成安装:

带 GPU 支持:

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

仅 CPU:

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

安装完成后,访问 http://localhost:3000 即可使用!


方式二:使用 uv 安装(推荐的手动安装方式)

1. 安装 uv

macOS/Linux:

curl -LsSf https://astral.sh/uv/install.sh | sh

Windows:

powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

2. 运行 Open WebUI

macOS/Linux:

DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve

Windows:

$env:DATA_DIR="C:\open-webui\data"; uvx --python 3.11 open-webui@latest serve

方式三:使用 pip 安装

# 安装
pip install open-webui

# 启动
open-webui serve

💡 提示:推荐使用 Python 3.11 版本

安装完成后,访问 http://localhost:8080 即可使用。


更新 Open WebUI

Docker 手动更新

使用 Watchtower 更新容器:

docker run --rm -v /var/run/docker.sock:/var/run/docker.sock nickfedor/watchtower --run-once open-webui

pip 更新

pip install --upgrade open-webui

参考资料