Nginx(5)nginx的负载均衡

news2024/11/13 10:10:46

负载均衡

  • 负载均衡的原理及处理流程
    • 负载均衡的作用
  • 负载均衡常用的处理方式
  • Nginx七层负载均衡
    • Nginx七层负载均衡的指令
    • Nginx七层负载均衡的实现流程
  • 负载均衡状态
  • 负载均衡策略
  • 负载均衡案例
    • 案例一:对所有请求实现一般轮询规则的负载均衡
    • 案例二:对所有请求实现加权轮询规则的负载均衡
    • 案例三:对特定资源实现负载均衡
    • 案例四:对不同域名实现负载均衡
    • 案例五:实现带有URL重写的负载均衡
  • Nginx四层负载均衡
    • 添加stream模块的支持
    • Nginx四层负载均衡的指令
    • 四层负载均衡的案例

早期的网站流量和业务功能都比较简单,单台服务器足以满足基本的需求,但是随着互联网的发展,业务流量越来越大并且业务逻辑也跟着越来越复杂,单台服务器的性能及单点故障问题就凸显出来了,因此需要多台服务器进行性能的水平扩展及避免单点故障出现。那么如何将不同用户的请求流量分发到不同的服务器上呢?
在这里插入图片描述

负载均衡的原理及处理流程

系统的扩展可以分为纵向扩展和横向扩展。

  • 纵向扩展是从单机的角度出发,通过增加系统的硬件处理能力来提升服务器的处理能力
    • 添加内存条,添加磁盘存储空间,甚至更换更好的CPU(总有性能上限)
  • 横向扩展是通过添加机器来满足大型网站服务的处理能力
    在这里插入图片描述

这里面涉及到两个重要的角色分别是"应用集群"和"负载均衡器"。

应用集群:将同一应用部署到多台机器上,组成处理集群,接收负载均衡设备分发的请求,进行处理并返回响应的数据。

负载均衡器:将用户访问的请求根据对应的负载均衡算法,分发到集群中的一台服务器进行处理。

负载均衡的作用

1、解决服务器的高并发压力,提高应用程序的处理性能。
2、提供故障转移,实现高可用。
3、通过添加或减少服务器数量,增强网站的可扩展性。
4、在负载均衡器上进行过滤,可以提高系统的安全性。

负载均衡常用的处理方式

方式一:用户手动选择

这种方式比较原始,只要实现的方式就是在网站主页上面提供不同线路、不同服务器链接方式,让用户来选择自己访问的具体服务器,来实现负载均衡。(后台控制负载均衡能力弱)
在这里插入图片描述
方式二:DNS轮询方式

域名系统(服务)协议(DNS)是一种分布式网络目录服务,主要用于域名与 IP 地址的相互转换。

大多域名注册商都支持对同一个主机名添加多条A记录,这就是DNS轮询,DNS服务器将解析请求按照A记录的顺序,随机分配到不同的IP上,这样就能完成简单的负载均衡。DNS轮询的成本非常低,在一些不重要的服务器,被经常使用。

在这里插入图片描述
验证:

ping www.baidu.com

清空本地的dns缓存

ipconfig/flushdns

在这里插入图片描述

使用DNS来实现轮询,不需要投入过多的成本,虽然DNS轮询成本低廉,但是DNS负载均衡存在明显的缺点。

1.可靠性低

假设一个域名DNS轮询多台服务器,如果其中的一台服务器发生故障,那么所有的访问该服务器的请求将不会有所回应,即使你将该服务器的IP从DNS中去掉,但是由于各大宽带接入商将众多的DNS存放在缓存中,以节省访问时间,导致DNS不会实时更新。所以DNS轮流上一定程度上解决了负载均衡问题,但是却存在可靠性不高的缺点。

2.负载均衡不均衡

DNS负载均衡采用的是简单的轮询负载算法,不能区分服务器的差异,不能反映服务器的当前运行状态,不能做到为性能好的服务器多分配请求,另外本地计算机也会缓存已经解析的域名到IP地址的映射,这也会导致使用该DNS服务器的用户在一定时间内访问的是同一台Web服务器,从而引发Web服务器减的负载不均衡。

负载不均衡则会导致某几台服务器负荷很低,而另外几台服务器负荷确很高,处理请求的速度慢,配置高的服务器分配到的请求少,而配置低的服务器分配到的请求多。

方式三:四/七层负载均衡

介绍四/七层负载均衡之前,先了解一个概念,OSI(open system interconnection),叫开放式系统互联模型,这个是由国际标准化组织ISO指定的一个不基于具体机型、操作系统或公司的网络体系结构。该模型将网络通信的工作分为七层。
在这里插入图片描述
应用层:为应用程序提供网络服务。

表示层:对数据进行格式化、编码、加密、压缩等操作。

会话层:建立、维护、管理会话连接。

传输层:建立、维护、管理端到端的连接,常见的有TCP/UDP。

网络层:IP寻址和路由选择

数据链路层:控制网络层与物理层之间的通信。

物理层:比特流传输,物理设备比如网卡

所谓四层负载均衡指的是OSI七层模型中的传输层,主要是基于IP+PORT的负载均衡

实现四层负载均衡的方式:
硬件:F5 BIG-IP、Radware等,成本高,不能自行扩展,效率好
软件:LVS、Nginx、Hayproxy等,成本低,扩展性好,性能没有硬件好

所谓的七层负载均衡指的是在应用层,主要是基于虚拟的URL或主机IP的负载均衡

实现七层负载均衡的方式:
软件:Nginx、Hayproxy等

四层和七层负载均衡的区别

四层负载均衡数据包是在底层就进行了分发,而七层负载均衡数据包则在最顶端进行分发,所以四层负载均衡的效率比七层负载均衡的要高。
四层负载均衡不识别域名,而七层负载均衡识别域名。

处理四层和七层负载以外,还有二层、三层负载均衡,二层是在数据链路层基于mac地址来实现负载均衡,三层是在网络层一般采用虚拟IP地址的方式实现负载均衡,用的少。

实际环境采用的模式

四层负载(LVS)+七层负载(Nginx)

Nginx七层负载均衡

Nginx要实现七层负载均衡需要用到proxy_pass代理模块配置。Nginx默认安装支持这个模块,所以不需要再做任何处理。Nginx的负载均衡是在Nginx的反向代理基础上把用户的请求根据指定的算法分发到一组【upstream虚拟服务池】。

Nginx七层负载均衡的指令

upstream指令: 用来定义一组服务器,它们可以是监听不同端口的服务器,并且也可以是同时监听TCP和Unix socket的服务器。服务器可以指定不同的权重,默认为1。

语法upstream name {…}
默认值
位置http

server指令: 用来指定后端服务器的名称和一些参数,可以使用域名、IP、端口或者unix socket

语法server name [paramerters]
默认值
位置upstream

Nginx七层负载均衡的实现流程

在这里插入图片描述
服务端设置【192.168.221.198】根据端口不同为不同的服务器

server {
    listen   9001;
    server_name localhost;
    default_type text/html;
    location /{
    	return 200 '<h1>192.168.221.198:9001</h1>';
    }
}
server {
    listen   9002;
    server_name localhost;
    default_type text/html;
    location /{
    	return 200 '<h1>192.168.221.198:9002</h1>';
    }
}
server {
    listen   9003;
    server_name localhost;
    default_type text/html;
    location /{
    	return 200 '<h1>192.168.221.198:9003</h1>';
    }
}

负载均衡器设置【192.168.221.199】

upstream backend {
	server 192.168.221.198:9001;
	server 192.168.221.198:9002;
	server 192.168.221.198:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

在这里插入图片描述
在这里插入图片描述

负载均衡状态

代理服务器在负责均衡调度中的状态有以下几个:

状态概述
down当前的server暂时不参与负载均衡
backup预留的备份服务器
max_fails允许请求失败的次数
fail_timeout经过max_fails失败后, 服务暂停时间
max_conns限制最大的接收连接数

down:将该服务器标记为永久不可用,那么该代理服务器将不参与负载均衡。

upstream backend{
  #只有9002和9003参与轮询
	server 192.168.221.198:9001 down;
	server 192.168.221.198:9002;
	server 192.168.221.198:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

该状态一般会对需要停机维护的服务器进行设置。
在这里插入图片描述

backup:将该服务器标记为备份服务器,当主服务器不可用时,将用来传递请求。

upstream backend{
	server 192.168.221.198:9001 down; #不可用服务器
	server 192.168.221.198:9002 backup; #备份服务器
	server 192.168.221.198:9003; #主服务器
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

只有当9003服务器不可用时,才使用9002来处理,当9003恢复后,又用主服务器来处理服务。

此时需要将9003端口的访问禁止掉来模拟下唯一能对外提供访问的服务宕机以后,backup的备份服务器就要开始对外提供服务,此时为了测试验证,我们需要使用防火墙来进行拦截。

介绍一个工具firewall-cmd,该工具是Linux提供的专门用来操作firewall的。

查询防火墙中指定的端口是否开放

firewall-cmd --query-port=9001/tcp

如何开放一个指定的端口

firewall-cmd --permanent --add-port=9002/tcp

批量添加开发端口

firewall-cmd --permanent --add-port=9001-9003/tcp

移除一个指定的端口

firewall-cmd --permanent --remove-port=9003/tcp

重新加载

firewall-cmd --reload

在这里插入图片描述

其中

​ --permanent表示设置为持久

​ --add-port表示添加指定端口

​ --remove-port表示移除指定端口

max_conns=number: 用来设置代理服务器同时活动链接的最大数量,默认为0,表示不限制,使用该配置可以根据后端服务器处理请求的并发量来进行设置,防止后端服务器被压垮。

max_fails=number: 设置允许请求代理服务器失败的次数,默认为1。

fail_timeout=time: 设置经过max_fails失败后,服务暂停的时间,默认是10秒。

upstream backend{
	server 192.168.221.199:9001 down;
	server 192.168.221.199:9002 backup;
	#当访问9003失败次数达到3次,等15秒以后再看9003是否恢复
	server 192.168.221.199:9003 max_fails=3 fail_timeout=15;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

负载均衡策略

介绍完Nginx负载均衡的相关指令后,我们已经能实现将用户的请求分发到不同的服务器上,那么除了采用默认的分配方式以外,我们还能采用什么样的负载算法?

Nginx的upstream支持如下六种方式的分配算法,分别是:

算法名称说明
轮询默认方式
weight权重方式
ip_hash依据ip分配方式
least_conn依据最少连接方式
url_hash依据URL分配方式
fair依据响应时间方式

轮询是upstream模块负载均衡默认的策略。每个请求会按时间顺序逐个分配到不同的后端服务器。轮询不需要额外的配置。

upstream backend{
   # 默认weight=1
	server 192.168.221.198:9001;
	server 192.168.221.198:9002;
	server 192.168.221.198:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

weight加权[加权轮询]
weight=number: 用来设置服务器的权重,默认为1,权重数据越大,被分配到请求的几率越大;该权重值,主要是针对实际工作环境中不同的后端服务器硬件配置进行调整的,所有此策略比较适合服务器的硬件配置差别比较大的情况。

upstream backend{
	server 192.168.221.198:9001 weight=10;
	server 192.168.221.198:9002 weight=5;
	server 192.168.221.198:9003 weight=3;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

ip_hash
当对后端的多台动态应用服务器做负载均衡时,ip_hash指令能够将某个客户端IP的请求通过哈希算法定位到同一台后端服务器上。这样,当来自某一个IP的用户在后端Web服务器A上登录后,在访问该站点的其他URL,能保证其访问的还是后端web服务器A。

避免用户在web服务1上登录保存session信息之后,再分发到别的服务上用户需要重复登录的问题。
在这里插入图片描述

语法ip_hash;
默认值
位置upstream
upstream backend{
	ip_hash;
	server 192.168.221.198:9001;
	server 192.168.221.198:9002;
	server 192.168.221.198:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

使用ip_hash指令无法保证后端服务器的负载均衡,可能导致有些后端服务器接收到的请求多,有些后端服务器接收的请求少,而且设置后端服务器权重等方法将不起作用,不建议使用,使用reedis来保存session,解决session不共享问题。
在这里插入图片描述
least_conn最少连接
把请求转发给连接数较少的后端服务器。轮询算法是把请求平均的转发给各个后端,使它们的负载大致相同;但是,有些请求占用的时间很长,会导致其所在的后端负载较高。这种情况下,least_conn这种方式就可以达到更好的负载均衡效果。

upstream backend{
	least_conn;
	server 192.168.221.198:9001;
	server 192.168.221.198:9002;
	server 192.168.221.198:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

此负载均衡策略适合请求处理时间长短不一造成服务器过载的情况。
在这里插入图片描述
url_hash

按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,要配合缓存命中来使用。同一个资源多次请求,可能会到达不同的服务器上,导致不必要的多次下载,缓存命中率不高,以及一些资源时间的浪费。而使用url_hash,可以使得同一个url(也就是同一个资源请求)会到达同一台服务器,一旦缓存住了资源,再此收到请求,就可以从缓存中读取。

upstream backend{
	hash &request_uri;
	server 192.168.221.198:9001;
	server 192.168.221.198:9002;
	server 192.168.221.198:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

访问如下地址:

http://192.168.221.199:8083/a
http://192.168.221.199:8083/b
http://192.168.221.199:8083/c

在这里插入图片描述
fair
fair采用的不是内建负载均衡使用的轮换的均衡算法,而是可以根据页面大小、加载时间长短智能的进行负载均衡。如何使用第三方模块的fair负载均衡策略。

配置方式如下:

upstream backend{
	fair;
	server 192.168.221.198:9001;
	server 192.168.221.198:9002;
	server 192.168.221.198:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

直接使用会报错,因为fair属于第三方模块实现的负载均衡。需要添加nginx-upstream-fair,如何添加对应的模块:

下载nginx-upstream-fair模块【下载地址 】

将下载的文件上传到服务器并进行解压缩

unzip nginx-upstream-fair-master.zip

重命名资源

mv nginx-upstream-fair-master fair

查看之前配置

nginx -V

在这里插入图片描述

使用./configure命令将资源添加到Nginx模块中

./configure --add-module=/root/nginx/module/fair

在这里插入图片描述
编译

make

编译可能会出现如下错误,ngx_http_upstream_srv_conf_t结构中缺少default_port
在这里插入图片描述
解决方案:

在Nginx的源码中 src/http/ngx_http_upstream.h,找到ngx_http_upstream_srv_conf_s,在模块中添加添加default_port属性,然后再进行make

in_port_t	   default_port

在这里插入图片描述

更新Nginx
将sbin目录下的nginx进行备份

mv /usr/local/nginx/sbin/nginx /usr/local/nginx/sbin/nginxold2

将安装目录下的objs中的nginx拷贝到sbin目录

cd objs
cp nginx /usr/local/nginx/sbin

更新Nginx

make upgrade

在这里插入图片描述

编译测试使用Nginx。

负载均衡案例

案例一:对所有请求实现一般轮询规则的负载均衡

upstream backend{
	server 192.168.221.198:9001;
	server 192.168.221.198:9002;
	server 192.168.221.198:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

案例二:对所有请求实现加权轮询规则的负载均衡

upstream backend{
	server 192.168.221.198:9001 weight=7;
	server 192.168.221.198:9002 weight=5;
	server 192.168.221.198:9003 weight=3;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

案例三:对特定资源实现负载均衡

upstream videobackend{
	server 192.168.221.198:9001;
	server 192.168.221.198:9002;
}
upstream filebackend{
	server 192.168.221.198:9003;
	server 192.168.221.198:9004;
}
server {
	listen 8084;
	server_name localhost;
	location /video/ {
		proxy_pass http://videobackend;
	}
	location /file/ {
		proxy_pass http://filebackend;
	}
}

案例四:对不同域名实现负载均衡

upstream itcastbackend{
	server 192.168.221.198:9001;
	server 192.168.221.198:9002;
}
upstream itheimabackend{
	server 192.168.221.198:9003;
	server 192.168.221.198:9004;
}
server {
	listen	8085;
	server_name www.itcast.cn;
	location / {
		proxy_pass http://itcastbackend;
	}
}
server {
	listen	8086;
	server_name www.itheima.cn;
	location / {
		proxy_pass http://itheimabackend;
	}
}

案例五:实现带有URL重写的负载均衡

upstream backend{
    server 192.168.221.198:9001;
	server 192.168.221.198:9002;
	server 192.168.221.198:9003;
}
server {
	listen	80;
	server_name localhost;
	location /file/ {
	# 将url地址上的file重写为server 再重新定位
		rewrite ^(/file/.*) /server/$1 last;
	}
	# 再请求分发
	location / {
		proxy_pass http://backend;
	}
}

Nginx四层负载均衡

Nginx在1.9之后,增加了一个stream模块,用来实现四层协议的转发、代理、负载均衡等。stream模块的用法跟http的用法类似,允许我们配置一组TCP或者UDP等协议的监听,然后通过proxy_pass来转发我们的请求,通过upstream添加多个后端服务,实现负载均衡。

四层协议负载均衡的实现,一般都会用到LVS、HAProxy、F5等,要么很贵要么配置很麻烦,而Nginx的配置相对来说更简单,更能快速完成工作。

添加stream模块的支持

Nginx默认是没有编译这个模块的,需要使用到stream模块,需要在编译的时候加上--with-stream

完成添加--with-stream的实现步骤:

将原有/usr/local/nginx/sbin/nginx进行备份
拷贝nginx之前的配置信息
在nginx的安装源码进行配置指定对应模块  ./configure --with-stream
通过make模板进行编译
将objs下面的nginx移动到/usr/local/nginx/sbin下
在源码目录下执行  make upgrade进行升级,这个可以实现不停机添加新模块的功能

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Nginx四层负载均衡的指令

stream指令: 指定流服务器指令的配置文件上下文,和http指令同级。

语法stream { … }
默认值
位置main

upstream指令: 该指令和http的upstream指令是类似的。

四层负载均衡的案例

需求分析:客户端发送请求到nginx,nginx根据ip和端口将请求分发到三个服务器上,分别是两个redis和一个tomcat,当用户访问81端口时,将请求分发到redis1和redis2上,当用户访问82端口时,将请求分到tomcat上。

在这里插入图片描述
环境准备:

准备Redis服务器,在一条服务器上准备三个Redis,端口分别是6379,6378,tomcat端口8080
redis环境准备
上传redis的安装包,redis-4.0.14.tar.gz

将安装包进行解压缩

tar -zxf redis-4.0.14.tar.gz

进入redis的安装包

cd redis-4.0.14

使用make和install进行编译和安装

make PREFIX=/usr/local/redis/redis01 install

拷贝redis配置文件redis.conf到/usr/local/redis/redis01/bin目录中

cp redis.conf	/usr/local/redis/redis01/bin

修改redis.conf配置文件

port  6379      #redis的端口
daemonize yes   #后台启动redis

将redis01复制一份为redis02

cd /usr/local/redis
cp -r redis01 redis02

将redis02文件文件夹中的redis.conf进行修改

port  6378      #redis的端口
daemonize yes   #后台启动redis

分别启动,即可获取两个Redis,并查看

ps -ef | grep redis

使用Nginx将请求分发到不同的Redis服务器上。

stream {
        upstream redisbackend {
                server 192.168.200.146:6379;
                server 192.168.200.146:6378;
        }
        server {
                listen  81;
                proxy_pass redisbackend;
        }
}

在这里插入图片描述
准备Tomcat服务器

上传tomcat的安装包,apache-tomcat-8.5.56.tar.gz

将安装包进行解压缩

tar -zxf apache-tomcat-8.5.56.tar.gz

进入tomcat的bin目录

cd apache-tomcat-8.5.56/bin
./startup

nginx.conf配置

stream {
        upstream redisbackend {
                server 192.168.200.146:6379;
                server 192.168.200.146:6378;
        }
        upstream tomcatbackend {
        		server 192.168.200.146:8080;
        }
        server {
                listen  81;
                proxy_pass redisbackend;
        }
        server {
        		listen	82;
        		proxy_pass tomcatbackend;
        }
}

访问测试
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/709150.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

红色通信史(二):半部电台起家

上一期&#xff0c;我给大家介绍了“四一二”反革命政变后&#xff0c;我党在上海开通了第一部秘密电台的过程。 秘密电台的开通&#xff0c;标志着我党通信事业正式起步。然而&#xff0c;没过多久&#xff0c;顾顺章叛变&#xff0c;给上海党组织带来了极大的破坏。于是&…

事务

事务回顾MySQL事务Spring事务实现编程式事务实现&#xff1a;声明式事务 Transactional 注解作用范围及名称&#xff08;value/transactionManager&#xff09;隔离级别&#xff1a;isolation超时时间&#xff1a;timeout修改只读事务指定异常异常捕获情况 事务失效场景Transac…

高等数学II-知识点(1)——原函数的概念、不定积分、求原函数的两种常用方法 (凑微分法、第二换元法)、分部积分法、有理函数原函数求法、典型三角函数原函数求法

目录 原函数的概念 不定积分 定义 不定积分的基本积分公式 不定积分的运算法则 求原函数的两种常用方法 第一换元法&#xff08;凑微分法&#xff09; 第二换元法 分部积分法 有理函数原函数求法 典型三角函数原函数求法 原函数的概念 设在区间上有定义&#xff0c…

Python3 实例(一) | 菜鸟教程(十九)

目录 一、Python Hello World 实例 二、 Python 数字求和 &#xff08;一&#xff09;以下实例为通过用户输入两个数字&#xff0c;并计算两个数字之和&#xff1a; &#xff08;二&#xff09;两数字运算&#xff0c;求和我们使用了加号 ()运算符&#xff0c;除此外&#…

GB51309实施后对于消防应急照明和疏散指示系统在城市隧道应用中的影响

安科瑞 崔丽洁 【摘要】&#xff1a;应急照明和疏散指示系统被广泛运用于城市隧道、楼宇建筑、地下管廊等各个方面。当隧道这类特殊建筑内出现火灾或事故时&#xff0c;可靠的应急照明和疏散指示系统对于人员的安全逃生有着重要的作用。随着GB51309-2018《消防应急照明和疏散指…

java从入门到起飞(三)——三大结构(顺序结构、分支结构、循环结构)

目录 前提顺序结构分支结构if选择语句switch语句 循环结构for循环语句格式while循环语句格式do…while循环语句三种循环的区别三种循环的区别&#xff1a;for和while的区别&#xff1a;死循环格式&#xff1a; 前提 三大结构也成为流程控制语句&#xff0c;分为三大类&#xff…

flask+uwsgi+docker+nginx 云服务器部署测试平台

flaskuwsgidockernginx 云服务器部署测试平台 开发环境 本次主要是在腾讯云上进行部署&#xff0c;系统是CentOS 7.9 64位&#xff0c;主要使用的软件如下&#xff1a; Python 3.9.5 Pycharm Flask1.0.2 Mysql 5.7 nginx uwsgi 一 安装Nginx 1.更新yum 源 sudo rpm -ivh …

基于Java+Swing+Mysql图书信息管理系统

基于JavaSwingMysql图书信息管理系统 一、系统介绍二、功能展示1.主页2.新增图书信息3.删除图书信息 三、数据库四、其他系统实现五、获取源码 一、系统介绍 该系统实现了查看图书列表、新增图书信息、删除图书信息 运行环境&#xff1a;eclipse、idea、jdk1.8 二、功能展示…

TCP的三次握手,四次挥手

1.TCP协议介绍 传输控制协议&#xff08;TCP&#xff0c;Transmission Control Protocol&#xff09;是一种面向连接的、可靠的、基于字节流的传输层通信协议&#xff0c;是为了在不可靠的互联网络上提供可靠的端到端字节流而专门设计的一个传输协议。由IETF的RFC 793 [1] 定义…

云之道知识付费v2 3.1.1独立版小程序系统源码

云之道知识付费v2 3.1.1独立版小程序系统源码 很不错的一款知识丰富小程序&#xff0c;感兴趣的可以自己下载搭建尝试一下。

Java官方笔记13集合

Storing Data The Collections Framework is the most widely used API of the JDK. 集合不是数据类型&#xff0c;它是JDK的API&#xff0c;可以用来存储数据等&#xff0c;相当于数据结构。 the Collections Framework is a set of interfaces that models different way of …

chatgpt赋能python:用Python做中文词云

用Python做中文词云 介绍 中文词云是一种常见的数据可视化方式&#xff0c;通过将文本中出现频率较高的关键词以图形的形式展现出来&#xff0c;让人一眼就能了解文本内容的主题和关键词。在搜索引擎优化&#xff08;SEO&#xff09;方面&#xff0c;中文词云也常被用来帮助分…

【python】使用Antlr4实现识别sql中的表或视图名

前言 先上成果预览图吧 作为一个数据库sql开发者,肯定有很多人和我一样,想要有一个工具,能传入任意sql,解析出sql中的所有表。 我之前有一篇文章【AIO】将任意查询sql转换成带远程数据库DBLINK的sql 中就提到了,使用纯文本硬解析会存在很多不确定因素,比如oracle新版本…

截取屏幕中指定区域的图像pyautogui.screenshot(区域)

【小白从小学Python、C、Java】 【等级考试500强双证书考研】 【Python-数据分析】 截取屏幕中指定区域的图像 pyautogui.screenshot(区域) [太阳]选择题 关于以下代码说法错误的是&#xff1a; import pyautogui print("【执行】pyautogui.screenshot(region(0,0,2…

麦语言入门~001课

麦语言是一种编程语言&#xff0c;它是由麦肯锡公司开发的一种专门用于数据分析和统计建模的语言。麦语言具有类似于R和Python的功能&#xff0c;并提供了一组丰富的数据处理、统计分析和机器学习的工具。麦语言主要用于解决复杂的商业和统计分析问题&#xff0c;并被广泛应用于…

CRM系统能帮助外贸企业提高哪些工作效率?

外贸企业的业务和客户遍布世界各地&#xff0c;更涉及不同的语言和文化。因此&#xff0c;管理客户信息、提高服务质量、扩大市场份额成为了外贸企业亟待解决的问题。针对这些情况&#xff0c;不少企业开始使用CRM客户管理系统。下面说说&#xff0c;外贸企业为什么要用CRM系统…

Spring面试题--Spring的bean的生命周期

这个问题比较困难&#xff0c;设计到了spring的底层&#xff0c;但是通过这个的学习&#xff0c;可以帮助我们了解Spring容器是如何管理和创建bean实例&#xff0c;以及方便调试和解决问题。 BeanDefinition bean的定义信息&#xff0c;Spring容器在进行实例化时&#xff0c;…

11-C++算法01-枚举排序

&#x1f4d6; C算法 在编程中&#xff0c;算法是解决问题的一系列步骤或规则。在C中&#xff0c;提供了丰富的算法库&#xff0c;可以方便地进行各种常见的算法操作。本篇学习笔记将介绍一些常见的排序算法&#xff0c;帮助你理解和应用这些算法。 &#x1f680; 枚举 &…

C语言VS Code 开发环境搭建

文章目录 官方文档安装拓展生成c_cpp_properties.json生成tasks.json生成launch.json测试Debug如何让程序debug完不退出&#xff1f;Windows版本的配置GDB和LLDB的区别 由于之前使用VS Code较少&#xff0c;缺少在VS Code上开发C程序的经验。本篇博文主要记录使用VS Code开发C程…

基于Tars高并发IM系统的设计与实现-基础篇2

基于Tars高并发IM系统的设计与实现-基础篇2 三大指标 高可用 分为服务高可用与存储高可用。 服务高可用 服务高可用要做到高可用必须具备两个特点&#xff1a; 负载均衡可横行扩展 当服务的请求量比较高的时候&#xff0c;一台服务不能满足需求&#xff0c;这时候需要多…