LLM预备知识、工具篇——LLM+LangChain+web UI的架构解析

news2024/11/26 8:51:14

目录

  • 【常见名词】
  • 一、LLM的低资源模型微调
  • 二、向量数据库
    • 1、Milvus(v2.1.4):云原生自托管向量数据库(Ubuntu下)
      • 1)安装(Docker Compose方式):
      • 2)管理工具(仅支持Milvus 2.0 之后的):
      • 3)python操作:基于pymilvus == 2.1.3
    • 2、Faiss
    • 3、Pinecone:完全托管的云原生向量数据库
    • 4、postgreSQL+pgvector插件
  • 三、LangChain+外挂知识库
    • 1、简介
    • 2、安装
    • 3、主要的几大模块:
  • 四、AI web工具
    • 1、Gradio==3.28.3
    • 2、Streamlit == 1.25.0
  • 五、其他
    • 1、FastChat
    • 2、FastAPI

【常见名词】

1、token
token是LLM中处理的最小文本单元,token的分割有多种策略:
(1)基于空格分词:即以空格为分隔,将文本分割成词组。对于英文可以使用这种方式。
(2)基于词典分词:根据预设的词典,在词典中可以匹配到的词组作为一个token;
(3)基于字节对齐分词:按照字节个数将文本分割,常见的中文模型使用2字节或3字节对;
(4)基于子词分词:将单词拆分为更小的子词组成token,例如"learning"可以拆分为[“learn”,“##ing”];
(5)BPE分词:通过统计学将高频词组 合并 为一个token。(GPT系列采用的方式:是一种基于数据压缩原理的算法,它可以根据语料库中出现频率最高的字节对(byte pair)来合并字节,从而生成新的字节。)

一、LLM的低资源模型微调

(1)p tuning v2
在这里插入图片描述

(2)Lora
这种方法有点类似于矩阵分解,可训练层维度和预训练模型层维度一致为d,先将维度d通过全连接层降维至r,再从r通过全连接层映射回d维度,r<<d,r是矩阵的秩,这样矩阵计算就从d x d变为d x r + r x d,参数量减少很多,下图中对矩阵A使用随机高斯初始化,对矩阵B使用0进行初始化。
推理计算的时候,因为没有改变预训练权重,所以换不同的下游任务时,lora模型保存的权重也是可以相应加载进来的,通过矩阵分解的方法参数量减少了很多。
在这里插入图片描述

二、向量数据库

1、Milvus(v2.1.4):云原生自托管向量数据库(Ubuntu下)

  • milvus的GitHub
  • 支持元数据存储。

1)安装(Docker Compose方式):

  • 参考博客:https://blog.csdn.net/hello_dear_you/article/details/127841589
  • 官网说明:https://milvus.io/docs/v2.1.x/install_standalone-docker.md

【注意】安装的时候,如果第一次安装错了版本,直接重新走下面的步骤的时候很可能启动时,milvus-minio秒退!!
在这里插入图片描述

(1)创建目录:

mkdir Milvus

(2)下载YAML文件

wget https://github.com/milvus-io/milvus/releases/download/v2.1.4/milvus-standalone-docker-compose.yml -O docker-compose.yml

(3)在YAML文件所在目录下启动Milvus

sudo docker compose up -d # docker v2,若是v1则使用docker-compose;使用docker compose version查看docker版本

【注意】
① 如果没有docker命令,则安装:

sudo snap install docker

② 这个命令开始执行之后会自动下载Milvus对应的镜像文件,需要等待一段时间。 当镜像下载完成后,相应的容器也会启动。
在这里插入图片描述
(4)查看Milvus的启动状态:

sudo docker compose ps

在这里插入图片描述

(5)停止Milvus

sudo docker compose down

2)管理工具(仅支持Milvus 2.0 之后的):

(1) Milvus_cli
(2) Attu可视化管理界面官方安装教程

  • attu的GitHub
  • 注意 attu 和 milvus 版本之间的对应关系,否则会登录不了,点击connect报400 Bad Request
milvusattu
2.0.x2.0.5
2.1.x2.1.5
2.2.x2.2.6

① 使用Docker Compose方式进行安装,
step1:通过Docker Compose方式安装完成milvus(即下载完YAML文件);
step2:编辑下载好的YAML文件,在service语句块添加以下内容:

attu:
  container_name: attu
  image: zilliz/attu:v2.1.5
  environment:
    MILVUS_URL: milvus-standalone:19530
  ports:
    - "8001:3000"  # 我的8000端口一直提示被占用,所以换成了8001端口
  depends_on:
    - "standalone"

step3:启动milvus:sudo docker-compose up -d
在这里插入图片描述

② 使用docker安装

docker run -p 8001:3000  -e MILVUS_URL={your machine IP}:19530 zilliz/attu:v2.1.5

step4:安装完成后,在连网的浏览器输入:http://{ your machine IP }:8001即可进入attu登录界面。
(your machine IP为安装milvus的机器ip;下图为attu的登陆界面,没有放开账号密码认证。)
attu的登陆界面,没有放开账号密码认证

3)python操作:基于pymilvus == 2.1.3

  • 注意Milvus版本和pymilvus版本之间的对应,否则会报错:pymilvus.exceptions.MilvusException: <MilvusException: (code=1, message=this version of sdk is incompatible with server, please downgrade your sdk or upgrade your server)>
    两者之间的版本对应:官网
Milvuspymilvus
2.2.122.2.14
2.2.112.2.13
2.1.42.1.3
2.1.22.1.2
  • pymilvus不同版本之间差异很大。
  • milvus的字段数据类型(dtype):仅可以在向量类型字段((BINARY_VECTOR、FLOAT_VECTOR))上创建索引
数据类型说明
NONE
BOOL
INT8支持主键字段
INT16支持主键字段
INT32支持主键字段
INT64支持主键字段
FLOAT
DOUBLE
STRING
VARCHAR
BINARY_VECTOR二值型向量,可以在该类型字段上创建索引 (适用下表中的后两种索引)
FLOAT_VECTOR浮点型向量,可以在该类型字段上创建索引(适用下表中的前九种索引)
UNKNOWN
  • 索引类型(index_type)与向量度量类型(metric_type):
索引类型说明可用的度量类型
FLAT适用于需要 100% 召回率且数据规模相对较小(百万级)的向量相似性搜索应用“L2”, “IP”
IVFLAT / IVF_FLAT基于量化的索引,适用于追求查询准确性和查询速度之间理想平衡的场景(高速查询、要求高召回率)“L2”, “IP”
IVF_SQ8基于量化的索引,适用于磁盘或内存、显存资源有限的场景(高速查询、磁盘和内存资源有限、接受召回率的小幅妥协)“L2”, “IP”
IVF_PQ基于量化的索引,适用于追求高查询速度、低准确性的场景(超高速查询、磁盘和内存资源有限、接受召回率的实质性妥协)“L2”, “IP”
HNSW基于图的索引,适用于追求高查询效率的场景(高速查询、要求尽可能高的召回率、内存资源大的情景)“L2”, “IP”
ANNOY基于树的索引,适用于追求高召回率的场景(低维向量空间)“L2”, “IP”
RHNSW_FLAT基于量化和图的索引,高速查询、需要尽可能高的召回率、内存资源大的情景“L2”, “IP”
RHNSW_PQ基于量化和图的索引,超高速查询、磁盘和内存资源有限、接受召回率的实质性妥协“L2”, “IP”
RHNSW_SQ基于量化和图的索引,高速查询、磁盘和内存资源有限、接受召回率的小幅妥协“L2”, “IP”
BIN_FLAT-“JACCARD”, “TANIMOTO”, “HAMMING”, “SUBSTRUCTURE”, “SUPERSTRUCTURE”
BIN_IVF_FLAT-“JACCARD”, “TANIMOTO”, “HAMMING”

(1)创建conda环境Milvus,并安装pymilvus

pip install pymilvus

【注意】操作时使用docker-compose ps -a查看milvus运行状态,确保milvus容器处在开启状态。

2、Faiss

  • FAISS的GitHub
  • C++编写的向量索引工具,是针对稠密向量进行相似性搜索和聚类的一个高效类库;有python接口,有CPU版和GPU版,可以直接pip安装。
  • 不支持元数据存储
pip install faiss-cpu==1.7.3
# 或者conda环境中安装
conda install faiss-cpu -c pytorch # cpu 版本
conda install faiss-gpu cudatoolkit=8.0 -c pytorch # GPU 版本 For CUDA8 

3、Pinecone:完全托管的云原生向量数据库

python中使用:

# langchain中的模块
from langchain.vectorstores import Pinecone

4、postgreSQL+pgvector插件

GitHub网址:https://github.com/pgvector/pgvector
详细内容参见博客:https://blog.csdn.net/lucky_chaichai/article/details/118575261

三、LangChain+外挂知识库

1、简介

  • langchain中文网:https://www.langchain.com.cn/
  • LangChain是一个链接面向用户程序和LLM之间的一个中间层,用以集成LLM和自有知识库的数据。
  • LangChain,可以通过将其它计算资源和自有的知识库结合,通过输入自己的知识库来“定制化”自己的大语言模型,防止“AI幻觉”;
  • 使用langchain将外挂知识库与LLM结合的策略是:
    在向量数据库中索引 question 的相似向量(度量准则包括余弦距离、欧式距离等),找到top_n条向量对应的关联文本作为context,根据预设的模板拼接得到最终的prompt,如:

已知信息:{context}
根据上述已知信息,简洁和专业的来回答用户的问题。如果无法从中得到答案,请说 “根据已知信息无法回答该问题” 或 “没有提供足够的相关信息”,不允许在答案中添加编造成分,答案请使用中文。
问题是:{question}

外挂知识库+LLM的一般过程:
在这里插入图片描述

2、安装

pip install langchain

3、主要的几大模块:

LLM API模块:langchain.llms
文本分块器:langchain.text_splitter(text_splitter中常用分类器介绍)
向量模型加载、向量化模块:langchain.embeddings
向量存储、索引模块:from langchain.vectorstores import Milvus, FAISS, Pinecone, Chroma
文件操作模块:langchain.docstore、angchain.document_loaders
langchain.agents

四、AI web工具

1、Gradio==3.28.3

  • Gradio的GitHub:https://github.com/gradio-app/gradio
  • Gradio支持Markdown文本显示规则,‘\n’换行不起作用,需要替换为‘<br/>’
  • 目前感觉这个真的仅适合做小demo(可能我还不是太精通吧);
  • 组件的value是什么数据类型,则在触发事件的函数 fn 中就直接看作该类型进行操作。

gr.Interface()、gr.Blocks()两种方式搭建UI界面:

组件/事件监听器描述
State(value)隐藏组件,用于存储一些组件交互需要使用的变量,可以通过组件之间的交互改变其值,可以使用obj.value获取其值
Markdown(value)Markdown格式的文本输入输出,在页面上遵循Markdown规范显示文本(value)
Tab(value)“标签页”布局组件,在一个页面上可以多个tab切换,value为tab上显示的文字
Row(variant)行类型,“default”(无背景)、“panel”(灰色背景色和圆角)或“compact”(圆角和无内部间隙)
Column(scale)“列布局”组件,scale为与相邻列相比的相对宽度
Accordion(label)折叠框组件, label为折叠筐的名称(会显示在组件上)
Chatbot(value)对话框组件,value为对话框默认值,一般为 [[我方None, 他方init_message], …],该组件在“触发”的fn函数中一般作为上述格式的list使用
Textbox(placeholder)文本框组件,placeholder为在文本区域提供占位符提示的字符串
Radio()
Button(value, interactive)按钮组件,value为按钮上面显示的文字;interactive=False则按钮为禁用状态
Dropdown(choices, label, value)下拉框组件,choices为list,其中元素为可选项;label下拉框的名称(会显示在组件上);value为list中的默认选项
Number(value, label)创建数字输入和显示数字输出的组件,value为该组件默认值,label为该组件名称(会显示在组件上)
change(fn, input, output)触发事件,当前组件(如Dropdown)的输入值改变时将会触发这个事件,fn根据输入input生成输出output,input、output均为组件或组件列表,fn的每个参数对应一个输入组件,每个返回值对应一个输出组件
click(fn, input, output)触发事件,当前组件(如Button)点击时将会触发这个事件
setup()
submit(fn, input, output)触发事件,当前组件(如Textbox)提交(回车)时将会触发这个事件

2、Streamlit == 1.25.0

  • 在做LLM聊天web UI方面,streamlit要比Gradio复杂的多,功能也更加强大,需要自己对各种组件进行风格渲染(没有现成的chatbot这种组件)。
  • 与Gradio相比,需要一点前端基础知识。
  • 不同于Gradio,定义的组件对象和使用st.session_state.[组件key]获取的值一样……
  • 运行方式:在py文件路径下,执行命令streamlit run webui_st.py

简单的聊天对话框示例:


import time

import streamlit as st

class MsgType:
    '''
    目前仅支持文本类型的输入输出,为以后多模态模型预留图像、视频、音频支持。
    '''
    TEXT = 1
    IMAGE = 2
    VIDEO = 3
    AUDIO = 4

class ST_CONFIG:
    user_bg_color = '#77ff77'
    user_icon = 'https://tse2-mm.cn.bing.net/th/id/OIP-C.LTTKrxNWDr_k74wz6jKqBgHaHa?w=203&h=203&c=7&r=0&o=5&pid=1.7'
    robot_bg_color = '#ccccee'
    robot_icon = 'https://ts1.cn.mm.bing.net/th/id/R-C.5302e2cc6f5c7c4933ebb3394e0c41bc?rik=z4u%2b7efba5Mgxw&riu=http%3a%2f%2fcomic-cons.xyz%2fwp-content%2fuploads%2fStar-Wars-avatar-icon-C3PO.png&ehk=kBBvCvpJMHPVpdfpw1GaH%2brbOaIoHjY5Ua9PKcIs%2bAc%3d&risl=&pid=ImgRaw&r=0'
    default_mode = '知识库问答'
    defalut_kb = ''

def robot_say(msg, kb=''):
    st.session_state['history'].append(
        {'is_user': False, 'type': MsgType.TEXT, 'content': msg, 'kb': kb})


def user_say(msg):
    st.session_state['history'].append(
        {'is_user': True, 'type': MsgType.TEXT, 'content': msg})

def format_md(msg, is_user=False, bg_color='', margin='10%'):
    '''
    将文本消息格式化为markdown文本, 指定user 和 robot消息背景色、左右位置等
    Parameters
    ----------
    msg: 文本内容
    bg_color: 指定markdown文本的背景颜色
    '''
    if is_user:
        bg_color = bg_color or ST_CONFIG.user_bg_color
        text = f'''
                <div style="background:{bg_color};
                        margin-left:{margin};
                        word-break:break-all;
                        float:right;
                        padding:2%;
                        border-radius:2%;">
                {msg}
                </div>
                '''
    else:
        bg_color = bg_color or ST_CONFIG.robot_bg_color
        text = f'''
                <div style="background:{bg_color};
                        margin-right:{margin};
                        word-break:break-all;
                        padding:2%;
                        border-radius:2%;">
                {msg}
                </div>
                '''
    return text

def message(msg,
            is_user=False,
            msg_type=MsgType.TEXT,
            icon='',
            bg_color='',
            margin='10%',
            kb='',
            ):
    '''
    渲染单条消息(包括双方头像、聊天文本)。目前仅支持文本
    返回第2列对象
    '''
    # 定义界面中的列,若参数为一个整数n,则意为插入n个等尺寸列;若为列表[1, 10, 1]则意为插入3列,数值为各列之间的倍数(数值为小数,则指占界面百分比)
    # 该函数中,列cols[0]为robot头像,cols[2]为user头像,cols[1]为聊天消息(markdown文本)
    cols = st.columns([1, 10, 1]) 
    empty = cols[1].empty() # 将第2列初始化为空
    if is_user:
        icon = icon or ST_CONFIG.user_icon
        bg_color = bg_color or ST_CONFIG.user_bg_color
        cols[2].image(icon, width=40) # 第3列展示user头像
        if msg_type == MsgType.TEXT:
            text = format_md(msg, is_user, bg_color, margin)
            empty.markdown(text, unsafe_allow_html=True) # 将第2列填充user的Markdown文本
        else:
            raise RuntimeError('only support text message now.')
    else:
        icon = icon or ST_CONFIG.robot_icon
        bg_color = bg_color or ST_CONFIG.robot_bg_color
        cols[0].image(icon, width=40) # 第1列展示robot头像
        if kb:
            cols[0].write(f'({kb})') # 用于向Web应用程序添加任何内容??
        if msg_type == MsgType.TEXT:
            text = format_md(msg, is_user, bg_color, margin)
            empty.markdown(text, unsafe_allow_html=True) # 将第2列填充robot的Markdown文本
        else:
            raise RuntimeError('only support text message now.')
    return empty


def output_messages(
    user_bg_color='',
    robot_bg_color='',
    user_icon='',
    robot_icon='',
):
    with chat_box.container(): # 为st添加一个多元素容器(chat_box为前面定义的st的占位符)
        last_response = None
        for msg in st.session_state['history']:
            bg_color = user_bg_color if msg['is_user'] else robot_bg_color
            icon = user_icon if msg['is_user'] else robot_icon
            empty = message(msg['content'],
                            is_user=msg['is_user'],
                            icon=icon,
                            msg_type=msg['type'],
                            bg_color=bg_color,
                            kb=msg.get('kb', '')
                            )
            if not msg['is_user']:
                last_response = empty
    return last_response

if __name__ == "__main__":
    webui_title = """
        👍langchain-ChatGLM WebUI
        """
    robot_say_ininfo = ('您好:\n\n'
                        '欢迎使用本机器人聊天界面(初版),基于streamlit我还在努力中哦~~🎉') # 注意这个写法,只有一对引号的话第二行会为其他背景色
    LLM_MODEL = 'baichuan-130b'
    EMBEDDING_MODEL = 'ernie-3.0-base-zh'
    modes = ['LLM 对话', '知识库问答', 'Bing搜索问答', '知识库测试']

    st.set_page_config(webui_title, layout='wide') # webui_title是浏览器选项卡中显示的页面标题
    # session_state在st rerun过程中定义、存储共享变量,可以存储任何对象;只可能在应用初始化时被整体重置。而rerun不会重置session state。
    # 调用其中变量的方法:st.session_state.[变量的key]
    st.session_state.setdefault('history', []) # history为变量的key,[]为初始值
    # 定义“等待提示”,注意每次对界面操作都会加载一次!!!?
    with st.spinner(f'正在加载模型({LLM_MODEL} + {EMBEDDING_MODEL}),请耐心等候...'):
        time.sleep(2)

    # 定义侧边栏
    with st.sidebar:
        robot_say(robot_say_ininfo)

        def on_mode_change():
            m = st.session_state.mode
            robot_say(f'已切换到"{m}"模式')

        index = 0
        mode = st.selectbox('对话模式', modes, index,
                        on_change=on_mode_change, key='mode') # on_change为复选框操作出发的变化函数
        print('mode:', mode) # 打印的结果即为mode里面的值(字符串)

    chat_box = st.empty() # 为st应用添加一个占位符
    # 创建表单容器,clear_on_submit=True表示在用户按下提交按钮后,表单内的所有小部件都将重置为其默认值
    with st.form('my_form', clear_on_submit=True):
        cols = st.columns([8, 1])
        question = cols[0].text_input(
            'temp', key='input_question', label_visibility='collapsed') # 第1列为文本输入框
        print('question:', question) # 打印结果即为文本框中输入的文本

        def on_send():
            q = st.session_state.input_question
            user_say(q)
            print("st.session_state['history']:", st.session_state['history'])

            last_response = output_messages()
            
            # last_response.markdown(
            #     format_md(st.session_state['history'][-1]['content'], False),
            #     unsafe_allow_html=True
            #     )
        submit = cols[1].form_submit_button('发送', on_click=on_send) # 第2列为按钮,on_click为点击按钮出发的操作函数
    
    output_messages() # 不执行这个函数页面会不展示聊天历史

首次运行结果:
在这里插入图片描述
操作效果:
在这里插入图片描述

五、其他

1、FastChat

  • fastchat的GitHub
  • fastchat是一个基于聊天机器人方式对LLM快速训练、部署、评估的开放平台: 将LLM下载到本地后,可以通过fastchat中的 CLI 、Web 两种方式加载 / 调用 / 启动LLM,快速与LLM进行对话:
    • CLI方式(命令行交互界面):
      python -m fastchat.serve.cli --model-path [a LLM local folder or a Hugging Face repo name]
      - -device cpu:使用CPU运行;
      - -num-gpus 2:指定使用的GPU数量;
      - -max-gpu-memory 8GiB:指定每个GPU使用的最大内存8G。
    • Web方式(web UI交互界面):
      需要三个主要组件:web servers(与用户的接口)、model workers(组织模型)、a controller(协调前两者)
      (1)命令行启动:
      python -m fastchat.serve.controller
      python -m fastchat.serve.model_worker --model-path [a LLM local folder or a Hugging Face repo name]
      python -m fastchat.serve.[gradio_web_server / openai_api_server ]
      openai_api_server:启动RESTful API server,为其支持的LLM提供OpenAI-compatible APIs(即通过该命令启动后,可以使用 openai 的方式与model_worker 对应的LLM进行对话);后续也可以接入Langchain(内在逻辑??)。
      - -host [ localhost ] --port [ 8000 ]:启动RESTful API server时,需要指定host、port
      (2)基于fastchat模块:
      from fastchat.serve.controller import Controller, app
      from fastchat.serve.model_worker import (AWQConfig, GptqConfig, ModelWorker, app, worker_id)
      from fastchat.serve.openai_api_server import (CORSMiddleware, app, app_settings)
      CLI的结果:(81个CPU,一个问题要等2分钟差不多……)
      在这里插入图片描述
      web方式启动后,后续基于python的操作:
      可以基于openai模块(如下例),也可以基于langchain中的 LLMChainfrom langchain.chat_models import ChatOpenAI
import openai

openai.api_key = "EMPTY"  
openai.api_base = "http://localhost:8000/v1"

def test_chat_completion_stream(model = "chatglm2-6b"):
	# 流式的测试,参考:https://github.com/lm-sys/FastChat/blob/main/tests/test_openai_api.py
    messages = [
    	{"role": "user", 
    	 "content": "Hello! What is your name?"}
    	 ]
    res = openai.ChatCompletion.create(model=model, messages=messages, stream=True)
    for chunk in res:
        content = chunk["choices"][0]["delta"].get("content", "")
        print(content, end="", flush=True)
    print()

def text_chat_completion(model = "chatglm2-6b"):
	# create a chat completion
	completion = openai.ChatCompletion.create(
	   model=model,
	   messages=[{"role": "user", "content": "Hello! What is your name?"}]
	 )
	# print the completion
	print(completion.choices[0].message.content)

【注意】(Ubuntu)在输入问题的时候删除错别字重新输入后,回车会报错:UnicodeDecodeError: 'utf-8' codec can't decode byte 0xe3 in position 15: invalid continuation byte

1)安装

pip install fschat

2、FastAPI

  • FastAPI的GitHub
  • FastAPI 是一个高性能 Web 框架,用于构建 API

1)安装

pip install fastapi
pip install uvicorn

其他参考:
从LangChain+LLM的本地知识库问答到LLM与知识图谱、数据库的结合

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1511740.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

在家不无聊,赚钱有门道:5个正规线上赚钱平台,轻松开启副业

随着网络技术的快速发展&#xff0c;越来越多的人开始寻求通过网络来探索兼职副业的可能性&#xff0c;期望实现额外的收入。在这个过程中&#xff0c;选择一个正规且可靠的线上兼职平台显得尤为关键。 为此小编精心网上盘点了5个正规且靠谱的线上兼职副业平台。这些平台不仅安…

数字证书在网络安全中的重要性与实际应用

数字证书作为一种“电子身份证”&#xff0c;在当今数字化的商业环境中有着广泛的实际应用。它主要用于身份认证、加密通信、电子签名和安全访问控制等方面&#xff0c;为各行各业提供了安全可靠的数字化解决方案。 网络安全领域 在网络通信中&#xff0c;数字证书被广泛应用…

vue的router

目前单页应用&#xff08;SPA&#xff09;越来越成为前端主流&#xff0c;单页应用一大特点就是使用前端路由&#xff0c;由前端来直接控制路由跳转逻辑&#xff0c;而不再由后端人员控制&#xff0c;这给了前端更多的自由。 当用户在应用中进行导航时&#xff0c;Vue Router …

详细图解二叉树四种遍历(前序中序后序层次遍历)

文章目录 一.前序遍历常规操作简单方法 二.中序遍历常规操作简单方法 三.后序遍历常规操作 四.层次遍历常规操作 本文中以此二叉树为例 一.前序遍历 常规操作 先根&#xff0c;再左&#xff0c;再右 确定了遍历整体结构&#xff1a; 确定了左子树中的整体结构 继续操作&…

PHP立体安全攻击向量:保护应用程序的关键挑战

PHP立体安全攻击向量&#xff1a;保护应用程序的关键挑战 PHP作为一种广泛使用的服务器端脚本语言&#xff0c;拥有庞大的用户群体和丰富的生态系统。然而&#xff0c;随着互联网的发展&#xff0c;网络安全问题也变得愈发严重。本文将深入探讨PHP的立体安全攻击向量&#xff0…

Python 一步一步教你用pyglet制作汉诺塔游戏(终篇)

目录 汉诺塔游戏 完整游戏 后期展望 汉诺塔游戏 汉诺塔&#xff08;Tower of Hanoi&#xff09;&#xff0c;是一个源于印度古老传说的益智玩具。这个传说讲述了大梵天创造世界的时候&#xff0c;他做了三根金刚石柱子&#xff0c;并在其中一根柱子上从下往上按照大小顺序摞…

【OpenGL手册11】材质的模型

目录 一、说明二、材质表面和光照三、设置材质四、光的属性五、不同的光源颜色练习 一、说明 在现实世界里&#xff0c;每个物体会对光产生不同的反应。比如&#xff0c;钢制物体看起来通常会比陶土花瓶更闪闪发光&#xff0c;一个木头箱子也不会与一个钢制箱子反射同样程度的…

SQL注入-时间盲注

时间盲注 盲注就是在SQL注入过程中&#xff0c;SQL语句执行后&#xff0c;查询到的数据不能回显到前端页面。此时&#xff0c;我们需要利用一些方法进行判断或者尝试&#xff0c;这个过程称之为盲注。 时间盲注特性 在页面中&#xff0c;不管用户输入什么&#xff0c;数据交互完…

【Linux】文件系统和软硬链接

❤️前言 今天的这篇博客主要是总结前几天学习的关于Linux系统下的文件系统以及软硬链接的内容。希望能对大家有所帮助。 正文 我们今天要学习关于Linux下的文件系统——EXT2的知识&#xff0c;需要注意的是这里的文件和我们以前遇到的那些文件并不相同&#xff0c;以前我们主…

安装配置Spark集群

安装Spark集群主要包括以下步骤&#xff1a; 1、下载Spark安装包&#xff0c;在各节点中安装部署spark集群 2、配置整合 3、启动并测试 下载Spark 可以从官方网站下载合适的版本。当前环境已经提供了安装包&#xff0c;存放在 /opt/software目录下。 在node1节点上安装Sp…

日期问题 刷题笔记

思路 枚举 19600101 到20591231这个区间的数 获得年月日 判断是否合法 如果合法 关于题目给出的日期 有三种可能 年/月/日 日/月/年 月/日/年 判断 是否和题目给出的日期符合 如果符合 输出 闰年{ 1.被4整除不被100整除 2.被400整除} 补位写法“%02d" 如果不…

数据“隐领”未来!【隐私计算实训营】限时免费招募!

数智经济时代&#xff0c;为强化个人隐私信息保护&#xff0c;国家颁布了《国家安全法》、《网络安全法》、《数据安全法》等数据安全法律法规&#xff0c;并严厉处罚数据违规出海、侵权、滥用等问题。数据安全和隐私保护成为大家的共识。隐私计算技术在此背景下应运而生&#…

Linux——线程(3)

在上一篇博客中&#xff0c;我介绍了关于Linux系统中pthread库线程的接口使用以 及对于pthread库的理解。但是我们单单会使用多线程的接口还不够&#xff0c;因为 在使用多线程解决问题的时候&#xff0c;由于进程中的数据对于其中的线程来说大 多是共享的&#xff0c;这也势必…

12双体系Java学习之局部变量和作用域

局部变量 局部变量的作用域 参数变量

找不到mfc140u.dll怎么办?修复缺失mfc140u.dll的多种方案分享

mfc140u.dll文件是一个重要的动态链接库文件&#xff0c;它在Windows操作系统中发挥着关键的作用。由于各种原因&#xff0c;例如应用程序冲突或系统错误等&#xff0c;mfc140u.dll文件有时会出现丢失的情况。一旦发生这种问题&#xff0c;运行依赖此文件的应用程序将无法正常启…

【C语言】初步解决指针疑惑

✨✨ 欢迎大家来到莉莉的博文✨✨ &#x1f388;&#x1f388;养成好习惯&#xff0c;先赞后看哦~&#x1f388;&#x1f388; 目录 一.理解内存和编址 1.1理解内存 1.2理解编址 二.指针变量和地址 1.1取地址操作符 三.指针变量和解引用操作符&#xff08;*&#xff09; …

设计模式八:观察者模式

文章目录 1、观察者模式2、示例3、spring中的观察者模式3.1 spring观察者模式的使用3.2 spring观察者模式原理解析 1、观察者模式 观察者模式&#xff08;Observer Design Pattern&#xff09;,也叫做发布订阅模式&#xff08;Publish-Subscribe Design Pattern&#xff09;、模…

音视频学习笔记——c++多线程(二)

✊✊✊&#x1f308;大家好&#xff01;本篇文章是多线程系列第二篇文章&#x1f607;。首先讲解了利用mutex解决多线程数据共享问题&#xff0c;举例更好理解lock和unlock的使用方法&#xff0c;以及错误操作造成的死锁问题&#xff0c;最后讲解了lock_guard与unique_lock使用…

LEETCODE3

法一:记忆化递归 int climbStairsRecursive(int n, int* memo) {if (n < 2) {return n;}if (memo[n] > 0) {return memo[n];}memo[n] climbStairsRecursive(n - 1, memo) climbStairsRecursive(n - 2, memo);return memo[n]; }int climbStairs(int n) {int* memo (in…

QML 控件添加键盘事件

在QML中&#xff0c;可以使用Keys类型来处理键盘事件。以下是一个简单的示例&#xff0c;演示如何在QML控件中添加键盘事件&#xff1a; import QtQuick 2.12 import QtQuick.Window 2.12Window {visible: truewidth: 640height: 480title: qsTr("Hello World")Recta…