langchain结合searXNG实现基于搜索RAG

news2024/9/21 4:32:34

目录

一、背景

二、环境说明和安装

1.1 环境说明

2.2 环境安装

2.2.1 searXNG安装

三、代码实现

代码

结果输出

直接请求模型输出

四、参考


一、背景

        大语言模型的出现带来了新的技术革新,但是大模型由于训练语料的原因,它的知识和当前实时热点存在时间差距,存在很严重的幻觉。而RAG检索增强生成能够解决这个问题,知识以prompt的形式进行补足,再让LLM进行润色进而呈现给用户。

二、环境说明和安装

1.1 环境说明

        整个环境都是基于我本地进行搭建,机器环境采用的是wsl2部署的Ubuntu-20.04,大模型选取的是Qwen/Qwen2-7B-Instruct,采用vllm进行部署推理以openai api的形式提供服务,langchain使用的是最新的0.2版本,由于searXNG是需要docker部署的,所以请确保已安装docker .desktop。

2.2 环境安装

2.2.1 searXNG安装
  • 下载
cd /opt/softwares
git clone https://github.com/searxng/searxng-docker.git
cd searxng-docker
  • docker-compose配置

searXNG的组件有三个,caddy实现反向代理,这里不需要反向代理,采用直接调用的形式,关于caddy的部分注释掉;redis用来保存session,searXNG提供搜索服务。设置端口映射,0.0.0.0:8080:8080左边的端口为宿主机端口,右边的端口为docker端口

version: "3.7"

services:
        #caddy:
        #container_name: caddy
        #image: docker.io/library/caddy:2-alpine
        #network_mode: host
        #restart: unless-stopped
        #volumes:
        #- ./Caddyfile:/etc/caddy/Caddyfile:ro
        #- caddy-data:/data:rw
        #- caddy-config:/config:rw
        #environment:
        #- SEARXNG_HOSTNAME=${SEARXNG_HOSTNAME:-http://localhost:80}
        #- SEARXNG_TLS=${LETSENCRYPT_EMAIL:-internal}
        #cap_drop:
        #- ALL
        #cap_add:
        #- NET_BIND_SERVICE
        #logging:
        #driver: "json-file"
        #options:
        #max-size: "1m"
        #max-file: "1"

  redis:
    container_name: redis
    image: docker.io/valkey/valkey:7-alpine
    command: valkey-server --save 30 1 --loglevel warning
    restart: unless-stopped
    networks:
      - searxng
    volumes:
      - valkey-data2:/data
    cap_drop:
      - ALL
    cap_add:
      - SETGID
      - SETUID
      - DAC_OVERRIDE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

  searxng:
    container_name: searxng
    image: docker.io/searxng/searxng:latest
    restart: unless-stopped
    networks:
      - searxng
    ports:
      - "0.0.0.0:8080:8080"
    volumes:
      - ./searxng:/etc/searxng:rw
    environment:
      - SEARXNG_BASE_URL=https://${SEARXNG_HOSTNAME:-localhost}/
    cap_drop:
      - ALL
    cap_add:
      - CHOWN
      - SETGID
      - SETUID
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

networks:
  searxng:

volumes:
  caddy-data:
  caddy-config:
  valkey-data2:
  • searxng配置
# 设置秘钥
sed -i "s|ultrasecretkey|$(openssl rand -hex 32)|g" searxng/settings.yml
# limiter设置为false,设置formats
vim searxng/settings.yml

settings.yml内容如下:

use_default_settings: true
server:
  # base_url is defined in the SEARXNG_BASE_URL environment variable, see .env and docker-compose.yml
  secret_key: "fc6a61736b885ace5f990f840006d057c01604501a36636b4a378f4b2cb89fdf"  # change this!
  limiter: false  # can be disabled for a private instance
  image_proxy: true
ui:
  static_use_hash: true
redis:
  url: redis://redis:6379/0
search:
  formats:
    - html
    - json

如果没有配置search.formats,在使用langchain进行调用的时候会报503错误,相关issue如下:

https://github.com/langchain-ai/langchain/issues/855

  • 启动
# 启动
docker-compose up -d
# 停止
docker-compose stop
  • 访问localhost:8080,如下:

三、代码实现

代码

from typing import List
from langchain_community.utilities import SearxSearchWrapper
import requests
from requests.exceptions import RequestException
from langchain_community.document_loaders import AsyncHtmlLoader
from langchain_community.document_transformers.html2text import Html2TextTransformer
from langchain_text_splitters import RecursiveCharacterTextSplitter
from langchain_openai.chat_models import ChatOpenAI
from langchain.prompts.chat import ChatPromptTemplate
import faiss
from langchain_community.vectorstores import FAISS
from langchain_community.docstore import InMemoryDocstore
from langchain_huggingface import HuggingFaceEmbeddings
from langchain_core.documents import Document
from langchain.chains.combine_documents import create_stuff_documents_chain
from langchain.chains.retrieval import create_retrieval_chain
import os
import sys
sys.path.append(os.path.abspath(os.pardir))
from global_config import MODEL_CACHE_DIR
os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE"


def check_url_access(urls: List[str]) -> List[str]:
    urls_can_access = []
    for url in urls:
        try:
            req_res = requests.get(url)
            if req_res is not None and req_res.ok:
                urls_can_access.append(url)
        except RequestException as e:
            continue
    return urls_can_access


def get_chat_llm(streaming=False, temperature=0, max_tokens=2048) -> ChatOpenAI:
    chat_llm = ChatOpenAI(
        model_name="Qwen2-7B-Instruct",
        openai_api_key="empty",
        openai_api_base="http://localhost:8000/v1",
        max_tokens=max_tokens,
        temperature=temperature,
        streaming=streaming
    )
    return chat_llm


def get_retriever(documents: List[Document]):
    # embedding
    embeddings = HuggingFaceEmbeddings(
        model_name=os.path.join(MODEL_CACHE_DIR, "maidalun/bce-embedding-base_v1")
    )
    # faiss
    faiss_index = faiss.IndexFlatL2(len(embeddings.embed_query("hello world")))  # 指定向量维度
    vector_store = FAISS(
        embedding_function=embeddings,
        index=faiss_index,
        docstore=InMemoryDocstore(),
        index_to_docstore_id={}
    )
    vector_store.add_documents(documents)
    return vector_store.as_retriever()


def get_answer_prompt() -> ChatPromptTemplate:
    system_prompt = """
    你是一个问答任务的助手,请依据以下检索出来的信息去回答问题:
    {context}
    """
    return ChatPromptTemplate([
        ("system", system_prompt),
        ("human", "{input}")
    ])


if __name__ == '__main__':
    llm = get_chat_llm()
    search = SearxSearchWrapper(searx_host="http://localhost:8080/")
    query = "《元梦之星》这款游戏是什么时候发行的"
    results = search.results(
        query,                                  # 搜索内容
        language="zh-CN",                       # 语言
        safesearch=1,                           # 可选0(不过滤任何结果),1(中等级别内容过滤),2(严格级别内容过滤)
        categories="general",                   # 搜索内容,取值general/images/videos等
        engines=["bing", "brave", "google"],    # 搜索引擎
        num_results=3                           # 返回内容数
    )
    print(f"search results: {results}")

    urls_to_look = [ele["link"] for ele in results if ele.get("link", None)]
    # 检查url是否可达
    urls = check_url_access(urls_to_look)
    print(f"urls: {urls}")
    # loader
    loader = AsyncHtmlLoader(urls, ignore_load_errors=True, requests_kwargs={"timeout": 5})
    docs = loader.load()
    # transformer
    html2text = Html2TextTransformer()
    docs = html2text.transform_documents(docs)

    # text split
    text_splitter = RecursiveCharacterTextSplitter(chunk_size=500, chunk_overlap=100)
    docs = text_splitter.split_documents(docs)

    # retriever
    retriever = get_retriever(docs)

    # create_stuff_documents_chain的prompt必须含有context变量
    qa_chain = create_stuff_documents_chain(llm, get_answer_prompt())
    rag_chain = create_retrieval_chain(retriever, qa_chain)

    res = rag_chain.invoke({
        "input": query
    })
    print(res["answer"])

结果输出

《元梦之星》这款游戏是在2023年12月15日全平台上线发行的。

直接请求模型输出

curl http://localhost:8000/v1/chat/completions \
    -H "Content-Type: application/json" \
    -d '{
    "model": "Qwen2-7B-Instruct",
    "messages": [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "《元梦之星》这款游戏是什么时候发行的"}
    ]
    }'

从基于搜索的RAG输出和模型原始输出来看,搜索能补充大模型缺失的知识,从而基于新知识来进行回答

四、参考

https://github.com/searxng/searxng-docker

https://github.com/ptonlix/LangChain-SearXNG

SearxNG Search | 🦜️🔗 LangChain

Conversational RAG | 🦜️🔗 LangChain

maidalun1020/bce-embedding-base_v1 · Hugging Face

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2097791.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

白酒酿造设备大揭秘:科技与传统的结合

在白酒的酿造世界里,设备与工艺同样重要。它们共同构建了白酒的不同风味和品质。今天,就让我们一起走进豪迈白酒(HOMANLISM)的酿造车间,探索那些科技与传统相结合的酿造设备,感受它们如何为白酒的酿造增添魅…

Seata环境搭建

1、Seata下载: 1.下载地址 2.下载的版本 2、Seata参数配置参考: 各种seata参数官网参考 3、Seata安装部署: 3.1.Seata新手部署指南: 3.2.在mysql8.0数据库里面建库建表 a.建数据库: create database seata; use seata;b.建…

开源项目管理工具 Plane 安装和使用教程

说到项目管理工具,很多人脑海中第一个蹦出来的可能就是 Jira 了。没错,Jira 确实很强大,但是...它也有点太强大了,既复杂又昂贵,而且目前也不再提供私有化部署版本了。 再说说飞书,作为国产之光&#xff0…

电路基础 ---- 负反馈放大电路的方框图分析法

1 方框图分析法 方框图如下: 图中 A u o A_{uo} Auo​是一个电压输入的放大器的放大倍数,称为开环放大倍数。 F F F为反馈系数,是一个矢量,是指输出信号 x o x_{o} xo​的多少倍回送到放大器的输入端。 M M M为衰减系数&#x…

[pytorch] --- pytorch基础之损失函数与反向传播

1 损失函数 1.1 Loss Function的作用 每次训练神经网络的时候都会有一个目标,也会有一个输出。目标和输出之间的误差,就是用Loss Function来衡量的。所以Loss误差是越小越好的。此外,我们可以根据误差Loss,指导输出output接近目…

浏览器百科:网页存储篇-Cookie详解(一)

1.引言 在现代网页开发中,数据存储和管理是提升用户体验的重要环节之一。作为网页存储技术的元老,Cookie 自从诞生以来就扮演着不可或缺的角色。Cookie 允许网站在用户浏览器中存储小块数据,从而实现状态保持、用户跟踪以及个性化设置等功能…

数仓基础(六):离线与实时数仓区别和建设思路

文章目录 离线与实时数仓区别和建设思路 一、离线数仓与实时数仓区别 二、实时数仓建设思路 离线与实时数仓区别和建设思路 ​​​​​​​一、离线数仓与实时数仓区别 离线数据与实时数仓区别如下: 对比方面 离线数仓 实时数仓 架构选择 传统大数据架构 …

KRaft模式下的Kafka启动指南:摆脱Zookeeper依赖

一、背景介绍 多年来,人们一直在同时使用Apache ZooKeeper和Apache Kafka。但是自Apache Kafka 3.3发布以来,它就可以在没有ZooKeeper的情况下运行。同时它包含了新的命令kafka-metadata-quorum和kafka-metadata-shell?该如何安装新版kafka&#xff0c…

快手小店多店铺管理神器:甜羊浏览器

随着短视频平台的兴起,快手小店已经成为众多商家的重要销售渠道。然而,对于同时管理多个快手小店的商家来说,如何高效地运营这些店铺成为了一大挑战。特别是在需要同时登录和管理多个店铺账号时,问题尤为突出。那么,如…

【Python报错已解决】“ImportError: cannot import name ‘triu‘ from ‘scipy.linalg‘“?

🎬 鸽芷咕:个人主页 🔥 个人专栏: 《C干货基地》《粉丝福利》 ⛺️生活的理想,就是为了理想的生活! 文章目录 引言:一、问题描述1.1 报错示例:以下代码尝试从 scipy.linalg 中导入 triu 函数。1.2 报错分析…

@JsonFormat失败问题处理

JsonFormat失败问题处理 在开发中经常使用到时间格式,如果数据库的时间是timestamp格式的,则返回的格式通过带有毫秒 例如2024-08-30 14:53:58.236 这样子的格式,通常不是我们想要的; 但是我们又不想再后端写更多的代码&#xff…

公司电脑的敏感文件怎么审查?七大敏感文件管控策略,高效应对企业泄密风险!

在数字化时代,企业的敏感文件如同珍贵的宝藏,需时刻警惕潜在的风险。 古有"城门失火,殃及池鱼"之警,今有企业敏感信息泄露,牵一发而动全身之虞。 因此,如何有效审查与管理公司电脑中的敏感文件…

将.xml格式转换为YOLO所需的.txt文件格式

首先,原始的.xml数据集基础构成如下: image目录结构如下: label目录结构如下: .xml内容如下: 之后修改代码如下: import xml.etree.ElementTree as ET import os, cv2 import numpy as np from os import…

机器学习(西瓜书)第 3 章 线性模型

3.1 基本形式 例如若在西瓜 问题中学得“/好瓜⑺- 0.2 • n色泽 0.5 •/根蒂 0.3 •力敲声 1”,则意味着可 通过综合考虑色泽、根蒂和敲声来判断瓜好不好,其中根蒂最要紧,而敲声比 色泽更重要. 本章介绍几种经典的线性模型.我们先从回归任务…

为什么正午选她演大女主戏?看到殷桃这个片段,我全懂了

最近小编听说正午的最新力作《凡人歌》要上了,而且女主还是我特别喜欢的殷桃,赶紧马不停蹄的去追剧,结果狠狠爱上了殷桃的演技! 剧里殷桃饰演的沈琳是一位家庭主妇,她以为她放弃了工作,做家庭主妇&#xff…

你还在为编程效率低下而烦恼吗?编程界的神级辅助!一键解锁高效编程模式,让你的工作效率飙升不止一倍!

哪个编程工具让你的工作效率翻倍? 第一章 引言 在软件开发领域,编程工具的重要性不言而喻。它们不仅能够加速开发过程,还能提高代码质量,从而显著提升开发人员的工作效率。随着技术的不断进步,越来越多的编程工具涌现…

多头切片的关键:Model 类 call解释;LlamaModel 类 call解释;多头切片的关键:cache的数据拼接

目录 Model 类 call解释 LlamaModel 类 call解释 方法签名 方法体 总结 Model 类 call解释 这段代码定义了一个特殊的方法 __call__,它是Python中的一个魔术方法(magic method),允许类的实例像函数那样被调用。在这个上下文中,这个方法很可能被定义在一个封装了某种…

java宠物商城网站系统的设计与实现

springboot508基于Springboot宠物商城网站系统 题目:宠物商城网站系统的设计与实现 摘 要 如今社会上各行各业,都喜欢用自己行业的专属软件工作,互联网发展到这个时候,人们已经发现离不开了互联网。新技术的产生,往往…

算法图解(1)

配套代码: https://github.com/egonSchiele/grokking_algorithms?tabreadme-ov-filehttps://github.com/egonSchiele/grokking_algorithms?tabreadme-ov-file 理论 数据结构:组织和存储数据的方式,影响程序的性能和存储效率 算法&#…

OpenHarmony使用ArkUI Inspector分析布局

● 摘要:视图的嵌套层次会影响应用的性能,开发者应该移除多余的嵌套层次,缩短组件刷新耗时。本文会介绍如何使用ArkUI Inspector工具分析布局,提示应用响应性能。 ● 关键字:列举本文相关的关键字:OpenHar…