之前的文章中实现了本地通过ollma 部署deepseek R1:14b 模型,这里我想继续实现个人知识库,方便自己文档,数据的检索;
下载anythingLLM
地址:
https://anythingllm.com/desktop
下载安装即可;
下载嵌入 文本处理 程序nomic-embed-text
nomic-embed-text
本地终端执行
下载成功
配置
1.打开之前下载的anythingLLM,左下角 点击设置 ,选择llm首选项
2.选择ollama 以及之前安装的本地模型deepseek-r1:14b,如果没有,看这篇文章【实战AI】macbook M1 本地ollama运行deepseek-CSDN博客
3.继续配向量数据库,默认即可
4.嵌入首选项
继续选择ollama ,模型选择nomic-embed-text
记得点击保存修改;
到此,基本配置完成,然后返回首页,点击 新建工作区 就可以聊天了;
本地知识库配置
但是,我们的重点是搭建个人RAG-本地知识库,不单单是模型交互的,需要将我们自己的数据上传,通过文件处理模型nomic-embed-text,将我们那自己的资料转换到向量数据库,然后我们每次提问,模型会进行前期检索,将从向量数据库中检索到时知识与模型结果整合,返回给我们;
因此,我们需要将自己的资料文档上传,如下图:
上传自己的资料文档;
这里我预先写了一个文档newfile.txt,用来测试效果;内容如下:
然后点击选中上传的文件;点击移动到工作区;
效果如下;
就这样将你想关联的文档资料上传到工作区,最后点保存插入到向量库即可
效果测试
我在没有上传相关资料前提问一个关于东方鲤鱼的问题;
上传资料后,再次提问相同问题;
基本实现本地知识库效果,不足的地方,希望留言交流,谢谢!!!