Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器(例如 Ollama)和兼容 OpenAI 的 API,并内置 RAG 推理引擎,使其成为强大的 AI 部署解决方案。
欲了解更多信息,请务必查看我们的 Open WebUI Documentation.
🚀 轻松设置:使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)无缝安装,获得无忧体验,支持 :ollama
和 :cuda
标记的图像。
🤝 Ollama/OpenAI API 集成:轻松集成兼容 OpenAI 的 API,实现与 Ollama 模型的灵活对话。自定义 OpenAI API URL,即可与 LMStudio、GroqCloud、Mistral、OpenRouter 等平台连接。
🛡️ 细粒度的权限和用户组:通过允许管理员创建详细的用户角色和权限,我们确保用户环境的安全。这种细粒度不仅增强了安全性,还能提供定制化的用户体验,培养用户的主人翁意识和责任感。
📱 响应式设计:在台式电脑、笔记本电脑和移动设备上享受无缝衔接的体验。
📱 移动端渐进式 Web 应用 (PWA):使用我们的 PWA,在您的移动设备上享受原生应用般的体验,提供本地离线访问和流畅的用户界面。
✒️🔢 全面支持 Markdown 和 LaTeX:全面的 Markdown 和 LaTeX 功能,提升您的 LLM 体验,带来更丰富的交互体验。
🎤📹 免提语音/视频通话:集成的免提语音和视频通话功能,带来无缝衔接的沟通体验,打造更具活力和互动性的聊天环境。
🛠️ 模型构建器:通过 Web 界面轻松创建 Ollama 模型。您可以轻松创建和添加自定义角色/代理、自定义聊天元素,并通过 Open WebUI Community 集成导入模型。
🐍 原生 Python 函数调用工具:工具工作区中内置的代码编辑器支持,增强您的 LLM 功能。只需添加纯 Python 函数即可使用自带函数 (BYOF),从而实现与 LLM 的无缝集成。
📚 本地 RAG 集成:借助突破性的检索增强生成 (RAG) 支持,探索聊天交互的未来。此功能将文档交互无缝集成到您的聊天体验中。您可以将文档直接加载到聊天中,或将文件添加到文档库,并在查询前使用“#”命令轻松访问它们。
🔍 RAG 网页搜索:使用 SearXNG
、Google PSE
、Brave Search
、serpstack
、serper
、Serply
、DuckDuckGo
、TavilySearch
、SearchApi
和 Bing
等服务商进行网页搜索,并将搜索结果直接添加到您的聊天体验中。
🌐 网页浏览功能:使用 #
命令后跟 URL,即可将网站无缝集成到您的聊天体验中。此功能允许您将网页内容直接融入对话中,增强互动的丰富性和深度。
🎨 图像生成集成:使用 AUTOMATIC1111 API 或 ComfyUI(本地)以及 OpenAI 的 DALL-E(外部)等选项无缝集成图像生成功能,通过动态视觉内容丰富您的聊天体验。
⚙️ 多模型对话:轻松同时与各种模型互动,利用其独特优势获得最佳响应。并行利用多种模型,提升您的体验。
🔐 基于角色的访问控制 (RBAC):通过限制权限确保安全访问;只有授权用户才能访问您的 Ollama,并且模型创建/拉取权限仅保留给管理员。
🌐🌍 多语言支持:借助我们的国际化 (i18n) 支持,您可以使用您喜欢的语言体验 Open WebUI。加入我们,扩展我们支持的语言!我们正在积极寻找贡献者!
🧩 管道、Open WebUI 插件支持:使用 管道插件框架 将自定义逻辑和 Python 库无缝集成到 Open WebUI 中。启动您的 Pipelines 实例,将 OpenAI 的 URL 设置为 Pipelines 的 URL,探索无限可能。示例 包括函数调用、用于控制访问的用户速率限制、使用 Langfuse 等工具的使用情况监控、使用 LibreTranslate 进行实时翻译以支持多语言、恶意消息过滤等等。
🌟 持续更新:我们致力于通过定期更新、修复和新功能来改进 Open WebUI。
想要了解更多关于 Open WebUI 的功能?请查看我们的 Open WebUI 文档 获取全面概述!
Open WebUI 可以使用 Python 软件包安装程序 pip 进行安装。在继续操作之前,请确保您使用的是 Python 3.11 以避免兼容性问题。
pip install open-webui
open-webui serve
这将启动 Open WebUI 服务器,您可以通过 http://localhost:8080 访问它。
[!NOTE]
请注意,某些 Docker 环境可能需要额外配置。如果您遇到任何连接问题,我们位于 Open WebUI 文档 的详细指南可为您提供帮助。
[!WARNING]
使用 Docker 安装 Open WebUI 时,请确保在 Docker 命令中包含-v open-webui:/app/backend/data
。此步骤至关重要,因为它可以确保数据库正确挂载并防止数据丢失。
[!TIP]
如果您希望使用包含 Ollama 或 CUDA 加速的 Open WebUI,我们建议您使用带有:cuda
或:ollama
标签的官方镜像。要启用 CUDA,您必须在 Linux/WSL 系统上安装 Nvidia CUDA 容器工具包。
如果您的计算机上安装了 Ollama,请使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果 Ollama 位于其他服务器上,请使用以下命令:
要连接到其他服务器上的 Ollama,请将“OLLAMA_BASE_URL”更改为该服务器的 URL:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
此安装方法使用单个容器镜像,将 Open WebUI 与 Ollama 捆绑在一起,从而可以通过单个命令完成简化的设置。根据您的硬件设置选择合适的命令:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
这两个命令都支持内置的Open WebUI 和 Ollama 的安装过程非常轻松,确保您能够快速启动并运行所有功能。
安装完成后,您可以通过 http://localhost:3000 访问 Open WebUI。尽情享受吧!😄