搭建一个自己的AI学术语音助手(一)

news2025/1/13 17:29:37

背景:

大模型出来后语音助手借着LLM的语义理解、知识组织能力的提升,升级了一波buffer。然后在使用这些语音助手的时候总觉得缺了点什么,但也讲不出来具体缺了什么。这几天的思考突然有了灵感,其实缺的就是自己的知识内容如何变成语音助手的管理对象,也就是说现在语音助手只是一个内容门户,并且还只服务于已经有的出名的内容APP商。对于用户自己的私域的数据和信息它是不管的,并且这些语音助手其实和内容是很松的耦合关系,这就会带来些问题对内容的理解不够深入,明明图书馆里有很多知识可是就是找产出不了好的科研论文。
找到了这个问题,决定自己做一个属于自己的语音知识管理助手。目标当然是星辰大海要把所有自己私域的知识:娱乐的、学习的、工作的、家庭的、历史事件全部给管理起来,语音作为知识沟通的手段;后面可以的话可以把社交融合进来,这个社交只是亲密关系的lbs粒度的社交属性和soul这种语音社交不同,比如可以做到组会任务的语音安排布置、每天组会成员语音学习论文....
当然虽然牛皮是星辰大海,但是开始的时候还是选了一个具体的落地场景来实现——论文阅读。论文作为科研工作者、技术公司员工每日阅读的必需品;然而现在的论文大部分其实都是英文写的、并且论文数量大、字数多。如果有个产品可以把论文翻译成中文,并且可以阅读出来、可以根据语音提问的方式来回答论文到底写了什么、文章亮点是什么,那是不是一个不错的事情。所以我要做的这件产品第一阶段也就是这么个东西了:
1.选出精品论文——暂时不做,可以通过关注的微信公众号实现论文筛选工作
2.把论文翻译成中文
3.对论文做结构化的解析,整理成知识
4.通过语音方式实现对论文问答
5.把答案通过语音回复

产品技术架构:

翻译模块

这部分实现思路很简单也很粗暴,但是效果还是有保障的。直接用LLM来实现英文到中文的翻译,LLM模型在翻译的表现还是稳定的,所以这部分直接这么用是没问题的。这部分要注意的点有3个:
1.给LLM模型输入的长度需要注意,不要太长了;这部分有几种解决思路:
1.1用可以使用更长token输入的服务,比如llama 32k、chatgpt 16k...或者用最近新出的技术longlora、streamllm来对现有模型改造
1.2 把长的输入文本做改造,切短了,然后输入LLM模型,这么做会增加请求时长以及加重中间结果处理复杂度
2.pdf的论文输入需要做数据预处理,这部分没什么技术含量,但是非常的影响产品使用体感
3.服务稳定性要做保障,对于异常处理要考虑到能用、不漏翻译、如果有漏任务要注意做好问题可快速追溯
下面代码是我给的一个poc的例子,要做到好用产品需要的开发和更细致的思考。

#用langchain接口来读取pdf论文
from langchain.document_loaders import PyPDFium2Loader
loader = PyPDFium2Loader("/root/autodl-tmp/quantum_algorithms.pdf")
data = loader.load()

# -*- coding: utf-8 -*-

import os
import logging

# 指定文件夹路径
folder_path = " article_en"

# 检查文件夹是否存在,如果不存在则创建
if not os.path.exists(folder_path):
    os.makedirs(folder_path)

# 指定文件夹路径
folder_path_ch = " article_ch"

# 检查文件夹是否存在,如果不存在则创建
if not os.path.exists(folder_path_ch):
    os.makedirs(folder_path_ch)
# 设置日志记录
logging.basicConfig(filename='retry.log', level=logging.ERROR)

def translate_article(folder_path,folder_path_ch,content):
    # 在新建的文件夹中创建文件并写入英文数据
    file_path = os.path.join(folder_path, "example_"+str(i)+".txt")
    # 判断文件是否存在
    if os.path.exists(file_path):
        # 如果文件存在,删除文件
        os.remove(file_path)
        print(f"文件 {file_path} 存在并已删除。")

    # 打开文件并写入英文数据
    with open(file_path, "w") as file:
        file.write(content.page_content)

    # 关闭文件
    file.close()

    # 在新建的文件夹中创建文件并写入中文数据
    file_path_ch = os.path.join(folder_path_ch, "example_"+str(i)+".txt")

    # 判断文件是否存在
    if os.path.exists(file_path_ch):
        # 如果文件存在,删除文件
        os.remove(file_path_ch)
        print(f"文件 {file_path_ch} 存在并已删除。")


    #请求openapi把英文翻译成中文
    try:
        import openai

        openai.api_base = ''
        openai.api_key = ''
        response = openai.ChatCompletion.create(
            model="gpt-3.5-turbo-16k",
            messages=[
                {"role": "system", "content": "你是一个专业翻译机器人,可以把论文翻译的准确表述流畅,严格执行人类指令"},
                {"role": "user", "content": content.page_content+"\n把上面论文片段翻译成中文"},
        ])
        # 打开文件并写入中文数据
        with open(file_path_ch, "w") as file:
            file.write(response["choices"][0]["message"]["content"])
    except Exception as e:
        pass


    # 关闭文件
    file.close()


for i in range(len(data)):
    # 最大重试次数
    max_retries = 3
    retry_count = 0

    while retry_count < max_retries:
        try:
            #print(data[i])
            translate_article(folder_path,folder_path_ch,data[i])

            # 如果操作成功,退出循环
            break
        except Exception as e:
            # 操作失败,记录异常到日志
            logging.error(f"操作失败: {e}")
            # 增加重试次数
            retry_count += 1
            if retry_count < max_retries:
                print(f"操作失败,重试中 ({retry_count}/{max_retries})...")
                print(data[i])
                # 等待一段时间后重试
                #time.sleep(1)
            else:
                # 达到最大重试次数,抛出异常
                raise



# 提示操作完成
print("文件夹和文件创建完成。")

附注:openapi的接口可以在OpenAI兼容接口 | CloseAI到这个链接注册申请,付费使用;国内也可以使用,不需要翻。
或者还可以通过fastapi方式来部署自己的符合openai接口的LLM服务,这样可以完全省去接口调用费用,当然为了保证速度你需要有一台自己的相对高性能的GPU。

'''
以qwen为例讲解如何部署自己服务,和如果请求服务
#下载qwen项目代码
git clone  
#安装用到的三方包
pip install fastapi uvicorn openai "pydantic>=2.3.0" sse_starlette
#起服务https://github.com/QwenLM/Qwen.git
python openai_api.py
'''
#客户端请求代码如下
import openai
openai.api_base = "http://localhost:8000/v1"
openai.api_key = "none"

# 使用流式回复的请求
for chunk in openai.ChatCompletion.create(
    model="Qwen",
    messages=[
        {"role": "system", "content": "你是一个专业翻译机器人,可以把论文翻译的准确表述流畅,严格执行人类指令"},
        {"role": "user", "content": data[0].page_content+"\n把上面论文片段翻译成中文"},
    ],
    stream=True
    # 流式输出的自定义stopwords功能尚未支持,正在开发中
):
    if hasattr(chunk.choices[0].delta, "content"):
        print(chunk.choices[0].delta.content, end="", flush=True)

# 不使用流式回复的请求
response = openai.ChatCompletion.create(
    model="Qwen",
    messages=[
        {"role": "system", "content": "你是一个专业翻译机器人,可以把论文翻译的准确表述流畅,严格执行人类指令"},
        {"role": "user", "content": data[1].page_content+"\n把上面论文片段翻译成中文"},
    ],
    stream=False,
    stop=[] # 在此处添加自定义的stop words 例如ReAct prompting时需要增加: stop=["Observation:"]。
)
print(response.choices[0].message.content)

底下图展示的是LLM翻译的效果

image.png

语音识别模块

这部分其实也很简单,直接找现成的ASR模型来做就好了。在这个项目中我们用的是"openai/whisper-large-v2"这个语音ASR大模型来实现用户语音转文本的功能。其实出来把语音翻译成文本,然后在用LLM模型来实现基于知识的问答外,还有一种思路:直接用语音embedding来做多模态的音-文回答,llasm就是这样思路。
底下是openai/whisper-large-v2应用实现代码,只是实现了wav文件输入、实时语音输入转文本的能力。还没有把转化的文本变成用户问题给LLM模型基于用户问题、pdf翻译文档做问题回复,这部分会在下一篇文章介绍。

import torch

import gradio as gr
import yt_dlp as youtube_dl
from transformers import pipeline
from transformers.pipelines.audio_utils import ffmpeg_read

import tempfile
import os

MODEL_NAME = "openai/whisper-large-v2"
BATCH_SIZE = 8
FILE_LIMIT_MB = 1000
YT_LENGTH_LIMIT_S = 3600  # limit to 1 hour YouTube files

device = 0 if torch.cuda.is_available() else "cpu"

pipe = pipeline(
    task="automatic-speech-recognition",
    model=MODEL_NAME,
    chunk_length_s=30,
    device=device,
)


def transcribe(inputs, task):
    if inputs is None:
        raise gr.Error("No audio file submitted! Please upload or record an audio file before submitting your request.")

    text = pipe(inputs, batch_size=BATCH_SIZE, generate_kwargs={"task": task}, return_timestamps=True)["text"]
    return  text


def _return_yt_html_embed(yt_url):
    video_id = yt_url.split("?v=")[-1]
    HTML_str = (
        f'<center> <iframe width="500" height="320" src="https://www.youtube.com/embed/{video_id}"> </iframe>'
        " </center>"
    )
    return HTML_str

def download_yt_audio(yt_url, filename):
    info_loader = youtube_dl.YoutubeDL()

    try:
        info = info_loader.extract_info(yt_url, download=False)
    except youtube_dl.utils.DownloadError as err:
        raise gr.Error(str(err))

    file_length = info["duration_string"]
    file_h_m_s = file_length.split(":")
    file_h_m_s = [int(sub_length) for sub_length in file_h_m_s]

    if len(file_h_m_s) == 1:
        file_h_m_s.insert(0, 0)
    if len(file_h_m_s) == 2:
        file_h_m_s.insert(0, 0)
    file_length_s = file_h_m_s[0] * 3600 + file_h_m_s[1] * 60 + file_h_m_s[2]

    if file_length_s > YT_LENGTH_LIMIT_S:
        yt_length_limit_hms = time.strftime("%HH:%MM:%SS", time.gmtime(YT_LENGTH_LIMIT_S))
        file_length_hms = time.strftime("%HH:%MM:%SS", time.gmtime(file_length_s))
        raise gr.Error(f"Maximum YouTube length is {yt_length_limit_hms}, got {file_length_hms} YouTube video.")

    ydl_opts = {"outtmpl": filename, "format": "worstvideo[ext=mp4]+bestaudio[ext=m4a]/best[ext=mp4]/best"}

    with youtube_dl.YoutubeDL(ydl_opts) as ydl:
        try:
            ydl.download([yt_url])
        except youtube_dl.utils.ExtractorError as err:
            raise gr.Error(str(err))


def yt_transcribe(yt_url, task, max_filesize=75.0):
    html_embed_str = _return_yt_html_embed(yt_url)

    with tempfile.TemporaryDirectory() as tmpdirname:
        filepath = os.path.join(tmpdirname, "video.mp4")
        download_yt_audio(yt_url, filepath)
        with open(filepath, "rb") as f:
            inputs = f.read()

    inputs = ffmpeg_read(inputs, pipe.feature_extractor.sampling_rate)
    inputs = {"array": inputs, "sampling_rate": pipe.feature_extractor.sampling_rate}

    text = pipe(inputs, batch_size=BATCH_SIZE, generate_kwargs={"task": task}, return_timestamps=True)["text"]

    return html_embed_str, text


demo = gr.Blocks()

mf_transcribe = gr.Interface(
    fn=transcribe,
    inputs=[
        gr.inputs.Audio(source="microphone", type="filepath", optional=True),
        gr.inputs.Radio(["transcribe", "translate"], label="Task", default="transcribe"),
    ],
    outputs="text",
    layout="horizontal",
    theme="huggingface",
    title="Whisper Large V2: Transcribe Audio",
    description=(
        "Transcribe long-form microphone or audio inputs with the click of a button! Demo uses the"
        f" checkpoint [{MODEL_NAME}](https://huggingface.co/{MODEL_NAME}) and   Transformers to transcribe audio files"
        " of arbitrary length."
    ),
    allow_flagging="never",
)

file_transcribe = gr.Interface(
    fn=transcribe,
    inputs=[
        gr.inputs.Audio(source="upload", type="filepath", optional=True, label="Audio file"),
        gr.inputs.Radio(["transcribe", "translate"], label="Task", default="transcribe"),
    ],
    outputs="text",
    layout="horizontal",
    theme="huggingface",
    title="Whisper Large V2: Transcribe Audio",
    description=(
        "Transcribe long-form microphone or audio inputs with the click of a button! Demo uses the"
        f" checkpoint [{MODEL_NAME}](https://huggingface.co/{MODEL_NAME}) and   Transformers to transcribe audio files"
        " of arbitrary length."
    ),
    allow_flagging="never",
)

yt_transcribe = gr.Interface(
    fn=yt_transcribe,
    inputs=[
        gr.inputs.Textbox(lines=1, placeholder="Paste the URL to a YouTube video here", label="YouTube URL"),
        gr.inputs.Radio(["transcribe", "translate"], label="Task", default="transcribe")
    ],
    outputs=["html", "text"],
    layout="horizontal",
    theme="huggingface",
    title="Whisper Large V2: Transcribe YouTube",
    description=(
        "Transcribe long-form YouTube videos with the click of a button! Demo uses the checkpoint"
        f" [{MODEL_NAME}](https://huggingface.co/{MODEL_NAME}) and   Transformers to transcribe video files of"
        " arbitrary length."
    ),
    allow_flagging="never",
)

with demo:
    gr.TabbedInterface([mf_transcribe, file_transcribe, yt_transcribe], ["Microphone", "Audio file", "YouTube"])

demo.launch(enable_queue=True)

代码运行效果如下,你会得到一个语音输入的界面;右侧output部分就是输出的文本。现在还只能做到单语种效果较好,后面会允许语音问题里面中英文混杂提问。

image.png

TTS回复模块

把文本装成语音输出,这个项目用的是最近新出的大模型bark。可以支持多种语言,多人声可选择。这个模型对后续做扩展做人声克隆支持力度也是非常好,只要改很少几行代码就可以支持。这个阶段先选择现成的人声来做语音合成,后面如果需要更个性化和更精细化的产品开发,可以基于模型做更细致的开发。
和语音识别一样,这篇文章只给出了我的技术选型和简单的实现。还没有把这些技术整合到项目中。下篇文章会把这部分代码整合到项目中。

from transformers import AutoProcessor, AutoModel

processor = AutoProcessor.from_pretrained("suno/bark",cache_dir="./")
model = AutoModel.from_pretrained("suno/bark",cache_dir="./")

inputs = processor(
    text=["Hello, my name is Suno. And, uh — and I like pizza. [laughs] 你是谁,上帝嘛。还是海的女儿."],
    return_tensors="pt",
)

speech_values = model.generate(**inputs, do_sample=True)

#在jupyter notebook中直接交互
from IPython.display import Audio

sampling_rate = model.generation_config.sample_rate
Audio(speech_values.cpu().numpy().squeeze(), rate=sampling_rate)

后续产品会开一个tab来做语音播放,大致效果如下:

image.png

基于知识问答

一种利用 langchain 思想实现的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。
依托于本项目支持的开源 LLM 与 Embedding 模型,本项目可实现全部使用开源模型离线私有部署。与此同时,本项目也支持 OpenAI GPT API 的调用,并将在后续持续扩充对各类模型及模型 API 的接入。
实现原理如下图所示,过程包括加载文件 -> 读取文本 -> 文本分割 -> 文本向量化 -> 问句向量化 -> 在文本向量中匹配出与问句向量最相似的 top k个 -> 匹配出的文本作为上下文和问题一起添加到 prompt中 -> 提交给 LLM生成回答。

image.png


这部分实现的功能就是把翻译好的论文通过向量知识库的方式存储到向量知识库。然后通过知识库中知识作为上下文来回答问题。其实这和真正的文档问答还是有些许的区别,也就是说后续如果要文档问答效果好还是要对这个项目做些扩展和改造。这个问题在哪呢,基于向量检索的方式把和问题相似的内容召回,然后作为上下文回答问题。这个前提假设是问题中必须出现和文章里面相关的信息才能检索到信息作为上下文;且还有一个隐性假设是这个答案只是和相关信息的附近信息相关有很强近场效应。
然而对于全局性问题前面的两个假设是不成立的。比如“这篇文章主题是什么”、“这篇文章介绍了什么技术点”、“这篇文章结构是怎么样”......对于这些全局性问题向量检索召回上下文就不能很好回答问题,必须要对全文信息有通篇阅读才能很好回答。要对通篇文章阅读就需要很长的输入token或者有很强的层级化的总结整理知识能力。这些都需要较费时间的prompt工程、系统话产品工程支持。
参考项目代码:GitHub - chatchat-space/Langchain-Chatchat: Langchain-Chatchat(原Langchain-ChatGLM)基于 Langchain 与 ChatGLM 等语言模型的本地知识库问答 | Langchain-Chatchat (formerly langchain-ChatGLM), local knowledge based LLM (like ChatGLM) QA app with langchain
modelscope/examples/pytorch/application/qwen_doc_search_QA_based_on_langchain.ipynb at master · modelscope/modelscope

知识抽取模块

这块其实是包括两个层次,所谓的知识抽取就是说:
1.提前把论文中常要了解的问题汇总,把畏难而退结果整理成简要方式给到用户;比如论文主题是什么、论文研究了什么问题、论文提出了什么新想法、论文解决思路是什么、论文做了什么实验研究、论文的实验结果是什么
2.对论文做知识抽取,把关键词、相关信息整理成图谱形式,在后续用户提问的时候可以做语义补充、可以把用户畏难而退没有相关信息召回不到信息,通过图谱关键信息方式提前召回,保证基于知识问答的准确性
对于第1个问题其实就是提前把通用的问题整理成prompt模版,这部分就是所谓prompt工程的事。对于第2个问题设计到信息解析、知识图谱抽取构建的事,当然我们不会做的那么重,只是会简单的基于LLM的方式来阅读全文给出较简单概要性的知识图谱。第一个问题相对零散这篇文章不会做过多介绍,下面部分主要会介绍如何基于LLM模型来抽取知识图谱。
具体模型结构如下,本部分选择智析、GollIE大模型抽取知识

image.png


产品对话运行效果示意图

image.png


GitHub - zjunlp/KnowLM: An Open-sourced Knowledgable Large Language Model Framework.
https://github.com/hitz-zentroa/GoLLIE/blob/main/notebooks/Relation%20Extraction.ipynb

小结:

本文介绍了做一个属于自己的语音知识管理助手的想法,并选择了论文阅读作为落地场景。计划通过选出精品论文、将论文翻译成中文、对论文进行结构化解析、通过语音方式实现对论文问答、将答案通过语音回复等步骤来实现这个产品。在实现过程中,提到了需要注意的问题,包括输入文本长度、pdf论文输入的数据预处理、服务稳定性等。
文章把开发论文语音助手腰用到的技术做了简单介绍,并基于过往经验给出了美国模块的实现技术选型。给出了初步的产品技术框架,在下一篇文章会介绍更详细的技术细节,后续会把项目代码汇总到:https://github.com/liangwq/Chatglm_lora_multi-gpu
1.翻译模块:pdf数据处理+LLM翻译
2.语音识别:openai/whisper-large-v2
3.TTS回复:bark后续会做语音clone
4.基于知识问答:langchain-向量库-大模型上下文问题回答改造
5.知识抽取:基于LLM模型的知识抽取模块,智析、GollIE

欢迎大家关注项目git:搭建一个自己的学术语音助手

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1519549.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

细说C++反向迭代器:原理与用法

文章目录 一、引言二、反向迭代器的原理与实现细节三、模拟实现C反向迭代器反向迭代器模板类的设计反向迭代器的使用示例与测试 一、引言 迭代器与反向迭代器的概念引入 迭代器&#xff08;Iterator&#xff09;是C标准模板库&#xff08;STL&#xff09;中的一个核心概念&am…

LinuxU盘挂载原理,为什么要用到U盘挂载及实现U盘挂载

目录 一、U盘挂载原理 二、为什么要用到U盘挂载 三、实现U盘挂载 一、准备工作 1、安装gcc 2、下载ntfs-3g 3、解压 4、编译准备 5、编译并安装 二、挂载演示 一、U盘挂载原理 Linux的U盘挂载原理涉及以下几个方面&#xff1a; 设备识别&#xff1a;当您将U盘插入Lin…

力扣L10--- 3. 无重复字符的最长子串--2024年3月14日

1.题目 2.知识点 注1&#xff1a;containsKey 是 Java 中 HashMap 类的一个方法&#xff0c;用于检查哈希表中是否包含指定的键。 注2&#xff1a;在哈希表&#xff08;HashMap)中&#xff0c;每个键对应着唯一的值&#xff0c;因此键不能重复&#xff0c;但值可以重复。 (1)创…

股价暴涨20%,BOSS直聘最新财报透露四点关键信息

又是一年招聘季&#xff0c;随着“金三银四”的到来&#xff0c;招聘市场再度成为话题讨论的中心&#xff0c;无数求职者踏入劳动力市场。 对比起曾经线下场场爆满的人才市场、双选会&#xff0c;今年就业市场的热闹场景出现在线上&#xff0c;2月28 日&#xff0c;“智联招聘…

Python面试笔记

Python面试笔记 PythonQ. Python中可变数据类型与不可变数据类型&#xff0c;浅拷贝与深拷贝详解Q. 解释什么是lambda函数&#xff1f;它有什么好处&#xff1f;Q. 什么是装饰器&#xff1f;Q. 什么是Python的垃圾回收机制&#xff1f;Q. Python内置函数dir的用法&#xff1f;Q…

10、MongoDB -- MongoDB 的 MongoTemplate 的功能和用法介绍

目录 MongoTemplate 的功能和用法演示前提&#xff1a;登录单机模式的 mongodb 服务器命令登录【test】数据库的 mongodb 客户端命令登录【admin】数据库的 mongodb 客户端命令 为 MongoDB 提供的两个 Starterspring-boot-starter-data-mongodb&#xff08;为以同步方式操作 Mo…

Java毕业设计-基于springboot开发的在线考试平台-毕业论文+答辩PPT(附源代码+演示视频)

文章目录 前言一、毕设成果演示&#xff08;源代码在文末&#xff09;二、毕设摘要展示1、开发说明2、需求分析3、系统功能结构 三、系统实现展示1、系统功能模块2、后台登录2.1管理员功能2.2教师功能2.3学生功能 四、毕设内容和源代码获取总结 Java毕业设计-基于springboot开发…

VSSM VMamba实现

文章目录 VSSM维度变换初始化模型参数初始化模型搭建def_make_layerdef _make_downsample patch embed第一至四阶段分类器 VSSBlockdef __ init__ssm分支mlp分支 def forward VSSM Mamba实现可以参照之前的 mamba_minimal系列 论文地址&#xff1a; VMamba 论文阅读&#xff1…

Redis 的常用基本全局命令【小林优选】

前言 Redis 常用的有 5 种数据结构&#xff0c;字符串&#xff0c;列表&#xff0c;哈希表&#xff0c;集合&#xff0c;有序集合&#xff0c;每一种数据结构都有自己独特的命令&#xff0c;但也有些通用的全局命令&#xff0c;本文所提到的是最基本的命令&#xff0c;Redis 的…

CIDR网络地址、广播地址、网段区间计算说明与计算工具

文章目录 开始问题参考答案 答案解析计算工具测试 开始 好久没有看计算网络&#xff0c;感觉已经完全返给老师了。 最近&#xff0c;有同事遇到个问题&#xff0c;网络一直不对&#xff0c;又开始重新看一下。 相信很多朋友长时间不看也忘了&#xff0c;所以&#xff0c;这里…

TCP机械臂控制

通过w(红色臂角度增大)s&#xff08;红色臂角度减小&#xff09;d&#xff08;蓝色臂角度增大&#xff09;a&#xff08;蓝色臂角度减小&#xff09;按键控制机械臂 注意&#xff1a;关闭计算机的杀毒软件&#xff0c;电脑管家&#xff0c;防火墙 1&#xff09;基于TCP服务器…

数据泄露态势(2024年2月)

监控说明&#xff1a;以下数据由零零信安0.zone安全开源情报系统提供&#xff0c;该系统监控范围包括约10万个明网、深网、暗网、匿名社交社群威胁源。在进行抽样事件分析时&#xff0c;涉及到我国的数据不会选取任何政府、安全与公共事务的事件进行分析。如遇到影响较大的伪造…

专业款希亦、小米、必胜、云鲸洗地机怎么样?深度测评利弊

洗地机可以说是一种非常实用的清洁工具&#xff0c;尤其是对于那些需要经常给家里地板清洁的人来说。它能够高效、彻底清洁地板&#xff0c;去除顽固污渍、灰尘和细菌&#xff0c;让家居环境更加洁净卫生。可是面对型号繁多的洗地机&#xff0c;我们应该怎么挑选呢&#xff1f;…

架构设计-复杂度来源:高性能

对性能孜孜不倦的追求是整个人类技术不断发展的根本驱动力。例如计算机&#xff0c;从电子管计算机到晶体管计算机再到集成电路计算机&#xff0c;运算性能从每秒几次提升到每秒几亿次。但伴随性能越来越高&#xff0c;相应的方法和系统复杂度也是越来越高。现代的计算机 CPU 集…

实现elasticsearch和数据库的数据同步

1. 数据同步 elasticsearch中的酒店数据来自于mysql数据库&#xff0c;因此mysql数据发生改变时&#xff0c;elasticsearch也必须跟着改变&#xff0c;这个就是elasticsearch与mysql之间的数据同步。 1.1. 思路分析 常见的数据同步方案有三种&#xff1a; 同步调用 异步通知…

element-plus表格,多样本比较,动态渲染表头

问题&#xff1a; 公司给了个excel表格&#xff0c;让比较两个样本之间的数据&#xff0c;并且动态渲染&#xff0c;搞了半天没搞出来&#xff0c;最后让大佬解决了&#xff0c;特此写篇博客记录一下。 我之前的思路是合并行&#xff0c;大概效果是这样&#xff1a; 但是最终…

微服务学习day02 -- nacos配置管理 -- Feign远程调用 -- Gateway服务网关

0.学习目标 1.Nacos配置管理 Nacos除了可以做注册中心&#xff0c;同样可以做配置管理来使用。 1.1.统一配置管理 当微服务部署的实例越来越多&#xff0c;达到数十、数百时&#xff0c;逐个修改微服务配置就会让人抓狂&#xff0c;而且很容易出错。我们需要一种统一配置管理…

雷卯有多种封装的超低电容ESD供您选择

1.应用 HDMI 1.3、1.4、2.0、2.1 接口 LCD、HDTV MIPI 接口 手机、 天线&#xff08;手机、GPS...&#xff09; 高速以太网 100/1000 以太网 USB 2.0 和 USB3.0、DVI、LVDS、IEEE 1394 接口 车载信息箱、VN&#xff08;车载导航&#xff09; 卫星导航、便携式导航 …

3.2网安学习第三阶段第二周回顾(个人学习记录使用)

本周重点 ①SQL语句的基本用法 ②SQL注入的基本概念和原理 ③SQL注入类型(**重点) ④SQL注入的防御和绕过手段 本周主要内容–SQL 一、SQL语句的基本用法 limit用法&#xff1a;显示查询结果中从第n条开始显示m条记录 select * from tb_user limit 1,2union用法&#x…

构建部署_Docker常用命令

构建部署_Docker常见命令 启动命令镜像命令容器命令 启动命令 启动docker&#xff1a;systemctl start docker 停止docker&#xff1a;systemctl stop docker 重启docker&#xff1a;systemctl restart docker 查看docker状态&#xff1a;systemctl status docker 开机启动&…