Skip to content

Open WebUI

Open WebUI is an extensible, feature-rich, and user-friendly self-hosted AI platform designed to operate entirely offline. It supports various LLM runners like Ollama and OpenAI-compatible APIs, with built-in inference engine for RAG, making it a powerful AI deployment solution.

InStall

Python pip

shell
# 安装 pip
dnf install -y python-pip
# 安装 open-webui
pip install open-webui
# 运行 open-webui
open-webui serve

# 报错:
# ROR: Could not find a version that satisfies the requirement open-webui (from versions: none)
# ERROR: No matching distribution found for open-webui

Docker

shell
dnf install -y docker
docker pull ghcr.io/open-webui/open-webui:main

docker run -d -p 3000:8080 \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always ghcr.io/open-webui/open-webui:main \
  --add-host=host.docker.internal:host-gateway

使用

初始化

  • 初次进入,设置管理员账号,邮箱,密码
  • 登录
  • 头像 -> 管理员面板 -> 设置 -> 外部链接 -> 管理 Ollama API 连接 -> 设置 -> 设置真实地址
  • 头像 -> 管理员面板 -> 设置 -> 模型 -> 设置可见性 -> 公共模型

使用

  • 新对话 -> 使用

Released under the MIT License.