前面一篇博文中讲述了window下用ollama+AnythingLLM部署本地知识库,但是个人感觉anythingllm不是很好用,还不如直接用cmd窗口,而且仅能本机使用,如果想部署到服务器上面供其他人访问,完全不可行,但是使用open-webui+ollama或者独立的open-webui救可以实现。
使用open-webui部署,其实也可以不用ollama,因为open-webui里面本身支持从huggingface里面直接下载,或者下载后放到指定目录即可使用,但是有一个确定就是,访问huggingface需要“科学上网”工具才能进行访问,一般来说部署在服务器上面,出于安全考虑,都是不建议的,同时为了没有“科学上网”工具的读者也可以实现,所以下面将分别讲解open-webui单独使用和+ollama使用的方式。
1、open-webui部署
要在windows系统部署open-webui,首先要安装conda来设置虚拟环境,当前带有交互界面的有anaconda和minconda,下面将使用anaconda来部署虚拟环境。
首先要从anaconda官网Download Anaconda Distribution | Anaconda下载安装文件,然后进行安装(安装一般都是下一步、下一步,如果有疑问,可以直接搜索anaconda,查看前人(此处给一个例子:Anaconda安装-超详细版(2023)_anaconda安装教程-CSDN博客)已经写好的步骤即可,此处不在赘述),安装好后直接在开始界面点击下图所示功能运行(启动过程可能因为硬件问题会有点慢)