Open-WebUI官方部署文档

news2025/3/11 15:48:14

Github地址:GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)
打开 WebUI 👋

如果你是零基础的小白,不知道什么是DeepSeek的话?不知道如何本地化部署,我强烈建议先看看老师的视频

【DeepSeek教程】DeepSeek从入门到精通,一小时掌握,零基础本地部署+投喂数据+个人知识库搭建与使用(附全套文档及使用指南)_哔哩哔哩_bilibili【DeepSeek教程】DeepSeek从入门到精通,一小时掌握,零基础本地部署+投喂数据+个人知识库搭建与使用(附全套文档及使用指南)共计9条视频,包括:DeepSeek是什么?、DeepSeek基础-通用技巧、DeepSeek基础-拓展场景等,UP主更多精彩视频,请关注UP账号。https://www.bilibili.com/video/BV1nMNeePEZd/?spm_id_from=333.1387.homepage.video_card.click

DeepSeek详细教程:


Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器(如Ollama)和与OpenAI 兼容的 API,并内置RAG 推理引擎,使其成为强大的 AI 部署解决方案。

demo.gif


Open WebUI 的主要功能⭐
●🚀轻松设置:使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)无缝安装,获得无忧体验,并支持:ollama标记:cuda图像。
●🤝 Ollama/OpenAI API 集成:轻松集成 OpenAI 兼容 API,与 Ollama 模型一起实现多功能对话。自定义 OpenAI API URL 以链接到LMStudio、GroqCloud、Mistral、OpenRouter 等。
●🛡️细粒度的权限和用户组:通过允许管理员创建详细的用户角色和权限,我们确保了安全的用户环境。这种粒度不仅增强了安全性,而且还允许定制用户体验,培养用户的主人翁意识和责任感。
●📱响应式设计:享受台式电脑、笔记本电脑和移动设备之间的无缝体验。
●📱适用于移动设备的渐进式 Web 应用程序 (PWA):通过我们的 PWA 在您的移动设备上享受类似原生应用程序的体验,提供本地主机上的离线访问和无缝的用户界面。
●✒️🔢完全支持 Markdown 和 LaTeX:通过全面的 Markdown 和 LaTeX 功能提升您的 LLM 体验,实现丰富的交互。
●🎤📹免提语音/视频通话:体验集成的免提语音和视频通话功能的无缝通信,从而实现更加动态和互动的聊天环境。
●🛠️模型构建器:通过 Web UI 轻松创建 Ollama 模型。通过Open WebUI Community集成轻松创建和添加自定义角色/代理、自定义聊天元素和导入模型。
●🐍原生 Python 函数调用工具:通过工具工作区中的内置代码编辑器支持增强您的 LLM。只需添加纯 Python 函数即可自带函数 (BYOF),从而实现与 LLM 的无缝集成。
●📚本地 RAG 集成:借助突破性的检索增强生成 (RAG) 支持,探索聊天交互的未来。此功能将文档交互无缝集成到您的聊天体验中。您可以将文档直接加载到聊天中或将文件添加到文档库中,使用#查询前的命令轻松访问它们。
●🔍 RAG 的网络搜索:使用SearXNG、、、、、、、、和等提供商执行网络搜索,Google PSE并将结果直接注入您的聊天体验。Brave SearchserpstackserperSerplyDuckDuckGoTavilySearchSearchApiBing
●🌐网页浏览功能#:使用命令后跟 URL,将网站无缝集成到您的聊天体验中。此功能允许您将网页内容直接整合到您的对话中,增强互动的丰富性和深度。
●🎨图像生成集成:使用 AUTOMATIC1111 API 或 ComfyUI(本地)以及 OpenAI 的 DALL-E(外部)等选项无缝整合图像生成功能,通过动态视觉内容丰富您的聊天体验。
●⚙️多模型对话:轻松同时与各种模型互动,利用其独特优势获得最佳响应。通过同时利用多种模型来增强您的体验。
●🔐基于角色的访问控制 (RBAC):通过受限的权限确保安全访问;只有授权个人才能访问您的 Ollama,并且为管理员保留独占的模型创建/拉取权限。
●🌐🌍多语言支持:借助我们的国际化 (i18n) 支持,以您喜欢的语言体验 Open WebUI。加入我们,扩大我们支持的语言!我们正在积极寻找贡献者!
●🧩 Pipelines、Open WebUI 插件支持:使用Pipelines 插件框架将自定义逻辑和 Python 库无缝集成到 Open WebUI 中。启动您的 Pipelines 实例,将 OpenAI URL 设置为 Pipelines URL,并探索无限可能。示例包括函数调用、用户速率限制以控制访问、使用 Langfuse 等工具进行使用情况监控、使用 LibreTranslate 进行实时翻译以支持多语言、有害消息过滤等等。
●🌟持续更新:我们致力于通过定期更新、修复和新功能来改进 Open WebUI。
想要了解更多有关 Open WebUI 的功能?查看我们的Open WebUI 文档,获得全面概述!
🔗 还可以查看 Open WebUI 社区!
别忘了探索我们的姊妹项目Open WebUI Community,您可以在其中发现、下载和探索自定义的模型文件。Open WebUI Community 提供了各种令人兴奋的可能性,可增强您与 Open WebUI 的聊天互动!🚀
如何安装🚀


通过 Python pip 安装
可以使用 Python 软件包安装程序 pip 安装 Open WebUI。在继续操作之前,请确保您使用的是Python 3.11,以避免兼容性问题。
安装 Open WebUI:打开终端并运行以下命令来安装 Open WebUI:
1pip install open-webui
运行 Open WebUI:安装后,您可以通过执行以下命令启动 Open WebUI:
2open-webui serve
这将启动 Open WebUI 服务器,您可以通过http://localhost:8080访问它。
Docker 快速入门🐳
笔记
请注意,对于某些 Docker 环境,可能需要额外的配置。如果您遇到任何连接问题,我们在Open WebUI 文档上的详细指南可随时为您提供帮助。
警告
使用 Docker 安装 Open WebUI 时,请确保在 Docker 命令中包含-v open-webui:/app/backend/data。此步骤至关重要,因为它可确保正确安装数据库并防止任何数据丢失。
提示
如果您希望使用包含 Ollama 或 CUDA 加速的 Open WebUI,我们建议您使用带有:cuda或标记的官方图像:ollama。要启用 CUDA,您必须在 Linux/WSL 系统上安装Nvidia CUDA 容器工具包。
使用默认配置进行安装
如果您的计算机上有 Ollama,请使用以下命令:
●docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果 Ollama 位于不同的服务器上,请使用以下命令:
要连接到另一台服务器上的 Ollama,请更改OLLAMA_BASE_URL为该服务器的 URL:
●docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:
●docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
仅供 OpenAI API 使用安装
如果您仅使用 OpenAI API,请使用此命令:
●docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
安装附带 Ollama 支持的 Open WebUI
此安装方法使用将 Open WebUI 与 Ollama 捆绑在一起的单个容器映像,从而允许通过单个命令进行简化设置。根据您的硬件设置选择适当的命令:
借助 GPU 支持:通过运行以下命令来利用 GPU 资源:
●docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
仅适用于 CPU:如果您不使用 GPU,请改用以下命令:
●docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
这两个命令都有助于 Open WebUI 和 Ollama 的内置、无忧安装,确保您可以快速启动并运行一切。
安装后,您可以通过http://localhost:3000访问 Open WebUI 。尽情享用吧!😄
其他安装方法
我们提供各种安装替代方案,包括非 Docker 原生安装方法、Docker Compose、Kustomize 和 Helm。访问我们的Open WebUI 文档或加入我们的Discord 社区以获取全面指导。
故障排除
遇到连接问题?我们的Open WebUI 文档可以帮您解决。如需进一步帮助并加入我们充满活力的社区,请访问Open WebUI Discord。
打开 WebUI:服务器连接错误
如果您遇到连接问题,通常是由于 WebUI docker 容器无法访问容器内 127.0.0.1:11434 (host.docker.internal:11434) 处的 Ollama 服务器。使用--network=hostdocker 命令中的标志来解决此问题。请注意,端口从 3000 更改为 8080,从而导致链接:http://localhost:8080。
Docker 命令示例:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
保持你的 Docker 安装为最新
如果你想将本地 Docker 安装更新到最新版本,你可以使用Watchtower来进行:
docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
在命令的最后一部分,open-webui如果不同,则将其替换为您的容器名称。
请查看我们的Open WebUI 文档中提供的更新指南。
使用 Dev 分支
警告
该:dev分支包含最新的不稳定功能和更改。使用它需要您自担风险,因为它可能存在错误或功能不完整。
如果您想尝试最新的前沿功能并且可以接受偶尔的不稳定,那么您可以使用:dev如下标签:
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
离线模式
如果您在离线环境中运行 Open WebUI,则可以设置HF_HUB_OFFLINE环境变量以1防止尝试从互联网下载模型。
export HF_HUB_OFFLINE=1

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2300641.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

爬虫破解网页禁止F12

右击页面显示如下 先点击f12再输入网址,回车后没有加载任何数据 目前的一种解决方法: 先 AltD ,再 CtrlShifti

Xshell连接虚拟机ubuntu,报错(port 22): Connection failed.

Connecting to 192.168.37.131:22... Could not connect to 192.168.37.131 (port 22): Connection failed. 虚拟机ubuntu 可以ping通,但就是连接不上。 先后排查了, 1. 网络适配器是否被禁用 2.设置虚拟机网络适配器的网络连接模式为桥接模式&#xf…

浏览器报错:无法访问此网站 无法找到xxx.xxx.net的DNS地址。正在诊断该问题。尝试运行Windows网络诊断。DNS_PROBE_STARTED

🤟致敬读者 🟩感谢阅读🟦希望我的文章能帮到您🟪如有兴趣可点关注了解更多内容 📘博主信息 点击标题👆有惊喜 📃文章前言 🔷文章均为学习和工作中整理的笔记,分享记录…

2024年国赛高教杯数学建模C题农作物的种植策略解题全过程文档及程序

2024年国赛高教杯数学建模 C题 农作物的种植策略 原题再现 根据乡村的实际情况,充分利用有限的耕地资源,因地制宜,发展有机种植产业,对乡村经济的可持续发展具有重要的现实意义。选择适宜的农作物,优化种植策略&…

CentOS/RHEL如何更换国内Yum源

在国内使用CentOS或RHEL系统时,默认的Yum源是国外的,这可能导致软件包的下载速度慢,甚至出现连接超时的问题。为了解决这个问题,我们可以将Yum源切换到国内的镜像源,从而大大提高软件包的下载速度和稳定性。 本文将详…

A9. Jenkins Pipeline自动化构建,飞书通知

怎么收集服务部署信息?【前置】首先Python如何操作JSON数据如何记录部署信息,什么时机统计?如何下发某一服务统计信息 ?那么怎么创建飞书通知机器人呢?编写飞书通知脚本总结下面我们接着上一篇文章《A8. Jenkins Pipeline自动化部署过程,多模块远程服务协调实战》继续往下…

利用 OpenCV 进行棋盘检测与透视变换

利用 OpenCV 进行棋盘检测与透视变换 1. 引言 在计算机视觉领域,棋盘检测与透视变换是一个常见的任务,广泛应用于 摄像机标定、文档扫描、增强现实(AR) 等场景。本篇文章将详细介绍如何使用 OpenCV 进行 棋盘检测,并…

DeepMind发布Matryoshka(套娃)量化:利用嵌套表示实现多精度LLM的低比特深度学习

本文将介绍 Google DeepMind 提出的 Matryoshka 量化技术,该技术通过从单个大型语言模型 (LLM) 实现多精度模型部署,从而革新深度学习。我们将深入研究这项创新技术如何提高 LLM 的效率和准确性。 随着深度学习模型在规模和复杂度上持续增长&#xff0c…

Java-数据结构-(HashMap HashSet)

一、Tree和Hash的区别 在上一篇文章中,我们讲到了"TreeMap"和"TreeSet",但当我们刷题的时候却会发现,实际应用Map和Set时,却常常都只会用"HashMap"和"HashSet",这是为什么呢…

el-table 结合 slot 具名插槽遍历封装列表模板

基础效果 要实现以上效果&#xff0c;可对 el-table 进行封装&#xff0c;将列配置视为数组&#xff0c;循环 el-table-column 标签模板组件 <div class"tableSlot"><el-table :data"dataList" border><el-table-columnv-for"(item, …

游戏引擎学习第108天

仓库:https://gitee.com/mrxiao_com/2d_game_2 看一下我们现在的进展 今天的工作重点是处理游戏中的Z轴问题&#xff0c;特别是如何在不同的层级之间进行移动&#xff0c;并确保Z轴的处理方式与真实世界中的透视效果一致。当前&#xff0c;游戏中的Z轴运动存在问题&#xff0…

遵循规则:利用大语言模型进行视频异常检测的推理

文章目录 速览摘要01 引言02 相关工作视频异常检测大语言模型 03 归纳3.1 视觉感知3.2 规则生成Normal and Anomaly &#xff08;正常与异常&#xff09;Abstract and Concrete &#xff08;抽象与具体&#xff09;Human and Environment &#xff08;人类与环境&#xff09; 3…

网页制作01-html,css,javascript初认识のhtml的基本标记

一、 Html简介 英文全称是 hyper text markup language,超文本标记语言,是全球广域网上描述网页内容和外观的标准. Html作为一款标记语言,本身不能显示在浏览器中.标记语言经过浏览器的解释和编译,才能正确地反映html标记语言的内容. 1.html 的基本标记 1&#xff09;头部标…

linux常用命令大全(包括抓包、网络检测、路由等,做项目一点点总结而来!)

文章目录 常用命令**apt相关****ls**&#xff1a;**cd****cp****ls -l | grep ssh**&#xff1a;会列出当前目录中包含 “ssh” 的文件或目录的详细信息。**系统资源**linux路由相关抓包工具和命令tcpdumpwiresharktshark iperf 常用命令 通过上下方向键 ↑ ↓ 来调取过往执行过…

Linux学习笔记之虚拟地址空间

1.示例引入 运行如下代码那么运行结果如下图。 #include<stdio.h> #include<unistd.h>int main() {pid_t id fork();if(id-1){printf("创建进程错误&#xff01;\n");return 1;}int size0;if(id0){//子进程while(1){printf("我是子进程&#xff0c…

HTTP的“对话”逻辑:请求与响应如何构建数据桥梁?

一、前言 作为现代互联网通信的基石&#xff0c;HTTP协议定义了客户端与服务器之间的“对话规则”。每一次网页加载、API调用或文件传输的背后&#xff0c;都离不开精心构造的HTTP请求与响应。请求中封装了用户的意图——从请求方法、资源路径到提交的数据&#xff1b;响应则承…

[论文阅读] SeeSR: Towards Semantics-Aware Real-World Image Super-Resolution

文章目录 一、前言二、主要贡献三、Introduction四、Methodology4.1 Motivation &#xff1a;4.2Framework Overview.** 一、前言 通信作者是香港理工大学 & OPPO研究所的张磊教授&#xff0c;也是图像超分ISR的一个大牛了。 论文如下 SeeSR: Towards Semantics-Aware Rea…

LM Studio笔记

一、什么是 LM Studio&#xff1f; LM Studio 是一款功能强大、易于使用的桌面应用程序&#xff0c;用于在本地机器上实验和评估大型语言模型&#xff08;LLMs&#xff09;。它允许用户轻松地比较不同的模型&#xff0c;并支持使用 NVIDIA/AMD GPU 加速计算。 功能集&#xff1…

Linux CentOS 7部署Vulhub靶场

漏洞复现环境&#xff1a; 1、Linux操作系统中通过Docker部署的Vulhub靶场&#xff1a; docker docker-compose 2、Nmap扫描工具 一、部署靶场 1、安装Docker 1、下载docker yum install docker 安装完成&#xff0c;如下图&#xff1a; 2、开启docker服务 [rootlocalhost…