首页
开源项目
搜索 TinyTools
OpenWebUI用户友好的AI界面
105.6k
在线演示
Github仓库
Gitee仓库
# Open WebUI 👋 Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器(例如 Ollama)和兼容 OpenAI 的 API,并内置 RAG 推理引擎,使其成为强大的 AI 部署解决方案。  欲了解更多信息,请务必查看我们的 [Open WebUI Documentation](https://docs.openwebui.com/). ## Open WebUI 的主要功能 ⭐ - 🚀 **轻松设置**:使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)无缝安装,获得无忧体验,支持 `:ollama` 和 `:cuda` 标记的图像。 - 🤝 **Ollama/OpenAI API 集成**:轻松集成兼容 OpenAI 的 API,实现与 Ollama 模型的灵活对话。自定义 OpenAI API URL,即可与 LMStudio、GroqCloud、Mistral、OpenRouter 等平台连接。 - 🛡️ **细粒度的权限和用户组**:通过允许管理员创建详细的用户角色和权限,我们确保用户环境的安全。这种细粒度不仅增强了安全性,还能提供定制化的用户体验,培养用户的主人翁意识和责任感。 - 📱 **响应式设计**:在台式电脑、笔记本电脑和移动设备上享受无缝衔接的体验。 - 📱 **移动端渐进式 Web 应用 (PWA)**:使用我们的 PWA,在您的移动设备上享受原生应用般的体验,提供本地离线访问和流畅的用户界面。 - ✒️🔢 **全面支持 Markdown 和 LaTeX**:全面的 Markdown 和 LaTeX 功能,提升您的 LLM 体验,带来更丰富的交互体验。 - 🎤📹 **免提语音/视频通话**:集成的免提语音和视频通话功能,带来无缝衔接的沟通体验,打造更具活力和互动性的聊天环境。 - 🛠️ **模型构建器**:通过 Web 界面轻松创建 Ollama 模型。您可以轻松创建和添加自定义角色/代理、自定义聊天元素,并通过 [Open WebUI Community](https://openwebui.com/) 集成导入模型。 - 🐍 **原生 Python 函数调用工具**:工具工作区中内置的代码编辑器支持,增强您的 LLM 功能。只需添加纯 Python 函数即可使用自带函数 (BYOF),从而实现与 LLM 的无缝集成。 - 📚 **本地 RAG 集成**:借助突破性的检索增强生成 (RAG) 支持,探索聊天交互的未来。此功能将文档交互无缝集成到您的聊天体验中。您可以将文档直接加载到聊天中,或将文件添加到文档库,并在查询前使用“#”命令轻松访问它们。 - 🔍 **RAG 网页搜索**:使用 `SearXNG`、`Google PSE`、`Brave Search`、`serpstack`、`serper`、`Serply`、`DuckDuckGo`、`TavilySearch`、`SearchApi` 和 `Bing` 等服务商进行网页搜索,并将搜索结果直接添加到您的聊天体验中。 - 🌐 **网页浏览功能**:使用 `#` 命令后跟 URL,即可将网站无缝集成到您的聊天体验中。此功能允许您将网页内容直接融入对话中,增强互动的丰富性和深度。 - 🎨 **图像生成集成**:使用 AUTOMATIC1111 API 或 ComfyUI(本地)以及 OpenAI 的 DALL-E(外部)等选项无缝集成图像生成功能,通过动态视觉内容丰富您的聊天体验。 - ⚙️ **多模型对话**:轻松同时与各种模型互动,利用其独特优势获得最佳响应。并行利用多种模型,提升您的体验。 - 🔐 **基于角色的访问控制 (RBAC)**:通过限制权限确保安全访问;只有授权用户才能访问您的 Ollama,并且模型创建/拉取权限仅保留给管理员。 - 🌐🌍 **多语言支持**:借助我们的国际化 (i18n) 支持,您可以使用您喜欢的语言体验 Open WebUI。加入我们,扩展我们支持的语言!我们正在积极寻找贡献者! - 🧩 **管道、Open WebUI 插件支持**:使用 [管道插件框架](https://github.com/open-webui/pipelines) 将自定义逻辑和 Python 库无缝集成到 Open WebUI 中。启动您的 Pipelines 实例,将 OpenAI 的 URL 设置为 Pipelines 的 URL,探索无限可能。[示例](https://github.com/open-webui/pipelines/tree/main/examples) 包括**函数调用**、用于控制访问的用户**速率限制**、使用 Langfuse 等工具的**使用情况监控**、**使用 LibreTranslate 进行实时翻译**以支持多语言、**恶意消息过滤**等等。 - 🌟 **持续更新**:我们致力于通过定期更新、修复和新功能来改进 Open WebUI。 想要了解更多关于 Open WebUI 的功能?请查看我们的 [Open WebUI 文档](https://docs.openwebui.com/features) 获取全面概述! ## 如何安装 🚀 ### 通过 Python pip 安装 🐍 Open WebUI 可以使用 Python 软件包安装程序 pip 进行安装。在继续操作之前,请确保您使用的是 **Python 3.11** 以避免兼容性问题。 1. **安装 Open WebUI**: 打开终端并运行以下命令安装 Open WebUI: ```bash pip install open-webui ``` 2. **运行 Open WebUI**: 安装完成后,您可以通过执行以下命令启动 Open WebUI: ```bash open-webui serve ``` 这将启动 Open WebUI 服务器,您可以通过 [http://localhost:8080](http://localhost:8080) 访问它。 ### Docker 快速入门 🐳 > [!NOTE] > 请注意,某些 Docker 环境可能需要额外配置。如果您遇到任何连接问题,我们位于 [Open WebUI 文档](https://docs.openwebui.com/) 的详细指南可为您提供帮助。 > [!WARNING] > 使用 Docker 安装 Open WebUI 时,请确保在 Docker 命令中包含 `-v open-webui:/app/backend/data`。此步骤至关重要,因为它可以确保数据库正确挂载并防止数据丢失。 > [!TIP] > 如果您希望使用包含 Ollama 或 CUDA 加速的 Open WebUI,我们建议您使用带有 `:cuda` 或 `:ollama` 标签的官方镜像。要启用 CUDA,您必须在 Linux/WSL 系统上安装 [Nvidia CUDA 容器工具包](https://docs.nvidia.com/dgx/nvidia-container-runtime-upgrade/)。 ### 使用默认配置安装 - **如果您的计算机上安装了 Ollama**,请使用以下命令: ```bash docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main ``` - **如果 Ollama 位于其他服务器上**,请使用以下命令: 要连接到其他服务器上的 Ollama,请将“OLLAMA_BASE_URL”更改为该服务器的 URL: ```bash docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main ``` - **要运行支持 Nvidia GPU 的 Open WebUI**,请使用以下命令: ```bash docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda ``` ## 仅用于 OpenAI API 的安装 - **如果您仅使用 OpenAI API**,请使用以下命令: ```bash docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main ``` ### 安装包含 Ollama 支持的 Open WebUI 此安装方法使用单个容器镜像,将 Open WebUI 与 Ollama 捆绑在一起,从而可以通过单个命令完成简化的设置。根据您的硬件设置选择合适的命令: - **支持 GPU**: 运行以下命令利用 GPU 资源: ```bash docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama ``` - **仅限 CPU**: 如果您不使用 GPU,请使用以下命令: ```bash docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama ``` 这两个命令都支持内置的Open WebUI 和 Ollama 的安装过程非常轻松,确保您能够快速启动并运行所有功能。 安装完成后,您可以通过 [http://localhost:3000](http://localhost:3000) 访问 Open WebUI。尽情享受吧!😄
tabler/tabler is licensed under the
MIT License
A short and simple permissive license with conditions only requiring preservation of copyright and license notices. Licensed works, modifications, and larger works may be distributed under different terms and without source code.
Permissions
Commercial use
Modification
Distribution
Private use
Limitations
Liability
Warranty
Conditions
License and copyright notice