Skip to content

Navigation Menu

Sign in
Appearance settings

Search code, repositories, users, issues, pull requests...

Provide feedback

We read every piece of feedback, and take your input very seriously.

Saved searches

Use saved searches to filter your results more quickly

Sign up
Appearance settings

基于官方OpenWebUI,汉化界面提高中文使用体验,增加了模型计费和用量统计

License

Notifications You must be signed in to change notification settings

ztx888/open-webui

Folders and files

NameName
Last commit message
Last commit date

Latest commit

History

14,988 Commits

Repository files navigation

Open WebUI (Custom Edition)

Open WebUI Banner
Fork Badge Upstream Badge PyPI Version Arch Badge



🚀 功能增强 · 🌏 深度汉化 · 🏗️ 多架构支持

基于 Open WebUI 构建,提供更强的模型集成、精细的运营控制及流畅的中文体验。


📖 简介

本项目紧密跟随上游更新,旨在解决官方版本在特定场景下的痛点。我们持续增添实用的扩展功能,让本地 AI 部署更加得心应手。

您的需求 / 痛点 本版本解决方案
想用 pip 安装? PyPI 发布:pip install open-webui-leon,支持 PM2 进程管理。
想用 OpenAI 新版 Responses API? 首发支持:完整兼容 /v1/responses,实时流式展示思考过程。
Gemini 丢失原生特性? 原生直连:基于官方 SDK 开发,支持 thinking_budget、原生联网搜索及工具调用。
模型不支持 Function Calling? 智能降级:自动识别错误并降级重试,无需手动切换设置。
需要精确控制 Token 成本? 精细计费:支持按次/Token 计费,区分输入输出价格,实时统计。
设备是树莓派或 ARM 服务器? 多架构支持:提供专门优化的 ARM64 镜像,拒绝 exec format error
觉得机翻界面很难受? 深度汉化:全量人工校对,专业术语更准确,报错信息更友好。
代码高亮不好看? 专业字体 + 高亮配色:JetBrains Mono / Fira Code,VS Code Light 风格。

🚀 快速开始

🐳 方式一:Docker 部署

推荐大多数用户使用,开箱即用

📦 方式二:pip 部署

适合需要深度定制或无法使用 Docker 的场景


🐳 Docker 一键部署

1. x86_64 架构 (Intel/AMD)

适用于大多数 PC、服务器及云主机:

docker run -d -p 3000:8080 \
 --add-host=host.docker.internal:host-gateway \
 -v open-webui:/app/backend/data \
 --name open-webui \
 --restart always \
 ghcr.io/ztx888/openwebui:latest

2. ARM64 架构 (Apple Silicon / 树莓派 / 飞牛 NAS)

⚠️ 重要提示:ARM64 设备请务必使用 -arm64 后缀的镜像标签!

docker run -d -p 3000:8080 \
 --add-host=host.docker.internal:host-gateway \
 -v open-webui:/app/backend/data \
 --name open-webui \
 --restart always \
 ghcr.io/ztx888/openwebui:latest-arm64

3. Docker Compose (推荐)

创建 docker-compose.yml 文件:

services:
 open-webui:
 # ARM64 设备请改为: ghcr.io/ztx888/openwebui:latest-arm64
 image: ghcr.io/ztx888/openwebui:latest
 container_name: open-webui
 ports:
 - "3000:8080"
 volumes:
 - open-webui:/app/backend/data
 extra_hosts:
 - "host.docker.internal:host-gateway"
 restart: always
volumes:
 open-webui: {}

启动服务:docker compose up -d


📦 pip + PM2 部署

💡 适用于无法使用 Docker、需要深度定制、或希望与现有 Python 环境集成的用户。

前置要求

依赖 版本要求 说明
Python 3.11+ 推荐使用 pyenv 或 conda 管理
Node.js 18+ 用于 PM2 进程管理
PM2 最新版 npm install -g pm2

1. 安装 Open WebUI

# 创建虚拟环境(推荐)
python -m venv open-webui-env
source open-webui-env/bin/activate # Linux/macOS
# open-webui-env\Scripts\activate # Windows
# 安装本定制版
pip install open-webui-leon

⚠️ 命令兼容性说明

  • 本定制版包名为 open-webui-leon,同时提供 open-webuiopen-webui-leon 两个命令
  • 如果系统中已安装官方 open-webui,请先卸载以避免冲突:pip uninstall open-webui

2. 使用 PM2 管理服务

# 安装 PM2(如未安装)
npm install -g pm2
# 启动服务
pm2 start "open-webui serve" --name open-webui
# 常用 PM2 命令
pm2 status # 查看状态
pm2 logs open-webui # 查看日志
pm2 restart open-webui # 重启服务
pm2 stop open-webui # 停止服务
# 设置开机自启
pm2 startup
pm2 save

3. 环境变量配置(可选)

# 自定义端口和数据目录
export PORT=8080
export DATA_DIR=/path/to/data
# 然后启动
pm2 start "open-webui serve" --name open-webui

4. 从 GitHub Release 安装(离线场景)

# 下载 .whl 文件后
pip install open_webui_leon-x.x.x-py3-none-any.whl

✨ 核心特性

🧠 模型能力深度集成

我们重构了核心模型接口,确保你不必在"兼容性"和"新特性"之间做选择。

  • OpenAI Responses API 首发支持

    • 完整支持 OpenAI 新版 /v1/responses 接口。
    • 流式思考:实时展示 o1、o3 等推理模型的 Thinking Process (Reasoning Content)。
    • 推理步骤可视化:让黑盒模型变得透明。
  • Google Gemini 原生 SDK

    • 摒弃中间层转换,直连 Google 官方 SDK。
    • 原生参数:完美支持 thinking_budget 等独有参数。
    • 全版本兼容:完美适配 Gemini 2.5 Pro / Gemini 3。
    • Function Calling:支持原生的工具调用能力。
  • 推理强度控制 (Reasoning Effort)

    • 为 o1/o3 等模型提供 Low / Medium / High 三档预设。
    • 支持自定义数值输入,灵活平衡响应速度与生成质量。
  • 智能图像编辑优化

    • 优化的上下文管理逻辑,自动精简历史消息。
    • 只保留必要的图像引用,大幅节省 Token 消耗。

🛠️ 系统管理增强

专为运营者和极客设计的高级管理功能。

  • 精细化计费系统

    • 运营级风控:支持"按次计费"或"按 Token 计费"。
    • 差异化定价:可分别设置输入、输出、推理的价格。
    • 实时成本:对话界面实时显示预估消耗,支持多货币显示。
  • 多架构原生优化

    • ARM64 专属构建:Apple Silicon、树莓派 4/5、Orange Pi、飞牛 NAS 完美运行。
    • 性能调优:针对低功耗设备优化内存占用与启动速度。
  • 启动性能飙升

    • 引入 Lazy Loading 策略与智能缓存机制。
    • 精简 Docker 镜像体积,显著减少首屏加载等待时间。
  • 灵活的权限控制

    • 支持批量设置模型的可见性(公开/私有)。
    • 按用户组分配模型权限,管理更加轻松。

🎨 交互体验打磨

细节决定成败,我们优化了大量 UI/UX 细节。

  • 对话分支 (Branch Chat)

    • 从任意消息创建分支,平行探索不同的对话走向。
    • 支持侧边栏快速切换分支,并排比较多个模型的响应。
  • 上下文精准控制

    • 可视化截断:支持可视化插入 Context Break。
    • 自定义长度:自由设置 Context Count。
    • 历史清理:一键智能清除无用的历史上下文。
  • 智能 Logo 匹配

    • 内置 20+ LLM 提供商图标支持。
    • 采用模糊匹配算法,自动为 GPT / Claude / Gemini / Qwen 等模型适配图标。
  • 深度中文优化

    • 全界面汉化,包括新增功能与报错信息。
    • 修正机器翻译的生硬术语,更符合中文语境与习惯。

⚙️ 推荐配置

启动 Open WebUI 后,建议按以下步骤配置以获得最佳体验(Best Practice):

1. 启用 Responses API 进入 连接设置,开启 Use Responses API 选项。

  • 效果:解锁 OpenAI o1/o3 系列模型的流式思考过程。

2. 配置 Gemini API 进入 Gemini 接口,直接填入 API Key。

  • 效果:启用原生 SDK 模式,支持 Thinking Budget 和工具调用。

3. 开启计费显示 (可选) 进入 模型设置,配置输入/输出费率并开启显示。

  • 效果:在对话框上方实时掌握 Token 成本。

4. 体验对话分支 在任意对话气泡上右键,选择 "创建分支"

  • 效果:不影响原对话流,开启新的探索路径。

📊 与官方版本对比

特性 官方原版 (Upstream) 本定制版 (Custom) 差异核心
部署方式 Docker only Docker + pip 支持 PyPI 安装
API 协议 Chat Completions Responses API + Chat 支持新版流式思考输出
Gemini 支持 OpenAI 兼容层 原生 SDK 完整支持原生参数与工具
推理控制 基础 Reasoning Effort 可调节推理强度
对话分支 Branch Chat 支持多线性对话管理
上下文控制 基础 可视化断点 更强的 Token 掌控力
运行环境 仅 x86_64 x86_64 + ARM64 完美支持树莓派/NAS
本地化 社区翻译 精修汉化 拒绝机翻感

📝 最新更新 (v0.7.3-5)

🆕 v0.7.3-5 新增

  • 🌐 原生网页搜索:支持模型内置联网搜索(如 Gemini 的 Google Search),无需外部 API。
  • 🔄 Function Calling 智能降级:模型不支持时自动识别并降级重试。
  • 🎯 模型选择器组件:支持从服务器实时获取可用模型,搜索过滤和批量选择。
  • 🔤 代码编辑器字体升级:新增 JetBrains Mono 和 Fira Code 等宽字体。
  • 🌈 浅色模式高亮优化:采用 VS Code Light / GitHub Light 风格配色。
  • 🎨 管理员设置 UI 重构:连接设置卡片化布局,添加品牌图标。
  • 📍 Toast / 侧边栏 / 设置页面 UI 优化:响应式设计,视觉层次更清晰。

🚀 v0.7.3-4 亮点

  • 📦 PyPI 发布:支持 pip install open-webui-leon 直接安装。
  • 启动性能优化:Lazy Loading 策略与智能缓存机制。

🚀 v0.7.3 重点功能

  • 🌳 对话分支功能:从任意消息节点分叉,探索不同可能性。
  • 🤖 Responses API:完整对接 OpenAI 新接口,展示推理链。
  • 🧠 自定义推理强度:手动控制 o1/o3 的思考预算。
  • 🎨 智能 Logo 系统:自动适配 20+ 厂商的模型图标。

📋 查看 完整更新日志


🔧 常见问题 (FAQ)

Q: 运行出现 "exec format error" 报错?
这是因为您在 ARM 设备(如树莓派、M1/M2 Mac)上拉取了 x86 镜像。
解决方法:请使用带 -arm64 后缀的镜像:
docker pull ghcr.io/ztx888/openwebui:latest-arm64
Q: 镜像标签该选哪个?
  • latest:适用于 Intel/AMD CPU(常规 PC、服务器)。
  • latest-arm64:适用于 Apple Silicon、树莓派、飞牛 NAS 等 ARM 设备。

🙌 致谢与声明

本项目基于 open-webui/open-webui 开发,感谢原作者及社区的杰出贡献。

  • 同步策略:定期同步上游 main 分支,优先合并新特性。
  • 许可证:遵循 MIT License
  • 反馈:欢迎提交 Issues 或加入 Discussions

Made with ❤️ for the AI community
专注于更好的 AI 对话体验

About

基于官方OpenWebUI,汉化界面提高中文使用体验,增加了模型计费和用量统计

Resources

License

Code of conduct

Contributing

Security policy

Stars

Watchers

Forks

Languages

  • Python 33.7%
  • Svelte 30.9%
  • JavaScript 27.0%
  • TypeScript 5.4%
  • CSS 2.6%
  • Shell 0.2%
  • Other 0.2%

AltStyle によって変換されたページ (->オリジナル) /