【网络】传输层 --- 详解TCP协议

news2024/12/28 5:50:56

目录

  • 一、协议段格式及其策略
    • 确认应答(ACK)机制
    • 6个标志位
    • 超时重传
    • 流量控制
    • 滑动窗口
      • 1、先谈滑动窗口一般情况
      • 2、再谈特殊窗口
    • 拥塞控制
      • 拥塞窗口
    • 延迟应答&&捎带应答
    • 面向字节流
    • 粘包问题
  • 二、三次握手和四次挥手
    • 三次握手
      • 为什么是3次?不是2、4、5、6次呢
    • 四次挥手

一、协议段格式及其策略

在这里插入图片描述

1、报头和有效载荷如何分离
a、提取报文前20,提取首部长度字段
b、首部长度字段*4 - 20 == 0?报头完毕:有几个字节的选项
c、剩下的就是有效载荷
tcp选项部分是可变的

那些是不可靠的:丢包(少量、大量)、乱序、重复、效验失败、发送太快/太慢、网络出问题
为什么会出现这么多不可靠的问题呢?
单纯就是因为通信双方,距离变长了。

发送和应答最终的呈现的是什么样子?
client和server是TCP客户端和TCP服务端,无论是请求还是响应,双方在进行交互的时候,通信发送的都是,TCP报头+有效载荷(如果有的话)

确认应答(ACK)机制

你怎么知道这个报文丢包了??
就有了确认应答机制,C可以并发的向网络发多个报文,S也可以并发的响应回来,发送各个报文的时间上就被重叠了,提高发送效率
1、多个报文经过网络,发送顺序,不一定是收到的顺序
2、当client收到多个确认的时候,client如何得知哪一个应答,对应哪一个报文?注定了,我们想要办法给报文带上编号?
每个报文都有自己的编号,应答的时候也要告诉我们对应的发送方,所以有确认序号。

TCP报头中,必定包含序号
32位序号:是client自身对报文的编号
确认序号X:X-1之前的报文已经全部收到了,下次发请从X编号开始发送
server如果11没收到,但是12收到了,代表了12之前的都收到了,包括10也收到了,所以11丢了,并不是数据丢了,而是确认应答丢了
所以可以允许少量的ACK丢失,更细粒的确认丢包原因

双方交互的都是TCP报文,为什么序号和确认序号不搞成一个字段,为什么要搞成2个字段呢?响应的时候在序号里填写11不就行了吗?
只研究了C到S的方向,S向C发消息的时候,也可以用一个序号,但是RCP是全双工的,C在向S发消息,C也有可能在接受S的响应,S也一样,未来当S收到报文之后,可能即想对报文做确认,又想把自己发送的数据发给C,在TCP大部分在收发的时候,可能存在一种情况:
以S为例,在响应里面,即可能包含C对S发的报文的确认,也有S对C发送数据,把这两个压缩成一个应答/请求,这就是捎带应答
32位序号:S->C数据序号
32位确认序号:S->C历史数据的确认
同时存在,所以必须是不同的字段
比如,两个人,吃了吗。吃了。你吃了吗。吃了,我吃的是饺子。

6个标志位

6个标志位:在报头里只占一个比特位,要么是0要么是1
标志位本质是什么?
未来有很多的客户端,会同时给S端发消息,有的是请求连接,有的是发送消息,有的是断开连接,所以服务器会在同一个时刻/时间段会收到各种各样的报文请求,各种各样的报文请求,都是不同的:
如我是一张餐厅老板,入住美团,有的是来吃饭的,有的是来取外卖的,有的是来找东西的等待,作为老板,来吃饭的我就要点餐,来找东西的,我就要问问找什么,取外卖我就问取餐号,我就会根据不同的人提供不同的处理动作,同样的,报文是有类型的。
那么怎么标识不同的报文呢?所以标志位本质是标识不同类型的报文
为什么有标志位?
因为标志位本质是标识不同类型的报文,就是为了标志位不同的报文,反应出报文的不同。
具体标志位,怎么设计的?
ACK: 该报文是一个确认应答报文,也可能会携带数据(捎带应答),是一个确认应答报文,就多多关注确认序号

SYN: 是一个链接请求的报文,(1、SYN 2、SYN+ACK 3、ACK(三次握手))只要SYN被置为1了,就是一个链接请求的报文

FIN: 是一个链接断开的报文,(4次挥手)

PSH: 催对方,让对方应用层赶紧把数据拿走,
比如: 现实生活中,你在写作业,有人问你,你作业写完了,我说,正在做,有的人说加油做,有的人说赶急做,明天要交,所以一定情况下,一些别的原因,有人推你,尽快做完一件事
同理,通信时,对方因为应用层的原因,接收缓冲区的数据迟迟不拿走,这时就可以把PSH置为1,发过去,催对方

RST: TCP是为了保证可靠性,TCP在进行三次握手的时候,是不是一定能握手成功呢?不一定,成功了,就一定是经过了三次握手,双方链接成功,双方也以为连接上了,S端因为一些原因,把连接断了,C端不知道,也有可能发送,
比如,S端网线断了,再插上,C端就又向S端发请求,因为C端不知道S端断网了,C端就向S端发送一个置为1的RST,S端就又向C端发送三次握手,要重置连接,重新发起三次握手

URG: 紧急指针标志位,比如,TCP必须是按序到达的,我们有人向缓冲区放数据,有人向缓冲区的拿数据,有人放,有人拿,这就是生产消费模型
如果我们想插队呢?我们想让特殊的数据尽快的处理,就有了URG,告诉接收方,我们报文里有紧急数据,这16位紧急指针是有效的,因为16位紧急指针大部分是无效的

16位紧急指针: 本质是一个偏移量,紧急数据在有效载荷中的偏移量
这个数据有多大呢,报头里并没有标识处理?因为我们的紧急数据只有一个字节,所以并不用告诉我们紧急数据的大小,就需要告诉我们在那个位置
URG有什么用?
携带了URG的标志位,就不用排队了,要通过特殊的发送和接收才能收到URG,有时候我们在正常上传数据,我们突然不想上传了,向对方发送不想上传的数据时候,这个数据是要排队的,还有大量的数据会紧急叫停,这时候就可以带一个URG,不用排队了,
但是对方怎么知道我们是暂停上传还是取消上传呢?
这时候就可以用1个字节的数据表示状态码,1表示取消,2表示暂停,3表示继续
紧急指针也可以叫带外数据,不走主传输流,直接传输,就是带外数据
如何使用?recv中的flag参数,有很多对应标志位
比如:MSG_OOB,在接收的时候,不会从正常的流中接收,就可以读取到紧急数据,也可以使用MSG_OOB来发送

可靠性并不是对方把数据全收到就叫可靠性,我发出来数据,我作为发送方,我知道对方收到或没收到,要有回馈,这也叫做可靠性,我知道没发成功

TCP不关心,上层传下来的是什么,不关心发送缓冲区里的数据,反正都是二进制数据
char sendBuffer[N] 发送缓冲区宏观是看做为一个大数组,一格一格的,上层传下来数据,无论是结构体还是其他都是二进制,上层拷到发送缓冲区中的数据天然的就有编号,这个编号就是数组下标,一段数据,就是数组的开始和结束,所以数组里的数据有人拿,有人放,这就是TCP面向字节流的表现

超时重传

在这里插入图片描述
主机A向B超时重传,但是B已经收到过了,A再超时重传一次,所以B会收到重复报文,就有了去重的功能,收到重复报文,也是不可靠的体现,所以有去重的功能
主机A如果把数据已经发到了网络里了,可是主机A不能把已经发送的数据去掉,主机A一旦发送出去,会对数据暂时维护一段时间,会维护到还没反馈的时候
一个已经发送的数据,还没回应的时候,会暂时保存起来,以应对超时重传

流量控制

在这里插入图片描述

16位窗口大小:用来流量控制的,防止发送方发送太快或太慢
send/write read/recv这些IO接口本质是拷贝给了发送和接受缓冲区,并没有发送到网络,发送过程,就是把数据从C的发送缓冲区拷贝到S的接受缓冲区,所以发送缓冲区所对应的传输层(TCP),什么时候发,发多少,出错了怎么办,由TCP控制,所以应用层的作用就是把数据拷贝给了下一层,就返回了。
可是,这两台机器相隔千里之外,如果给对方发送数据太快,对方接受来不及,对方接受缓冲区满了,你再发,那么对端就来不及接受,就把报文直接被丢弃了,那么报文就丢失了,所以TCP有确认应答机制,可以超时重传,我不怕,但是站在这几个后续报文的角度,我在路上都没出问题,到了目的,你告诉我们要被丢弃了,就仅仅是你来不及接受,虽然可以,但是不合理,这时候已经消耗了很多网络资源,我没有出错,是你来不及接收,是因为你发的太快,这种做法是比较低效的表现,所以你来不及收了,就要早点说嘛,让发送方控制一下发送速度,这种策略就是流量控制,
那我们怎么样控制发送缓冲区不要发送太快呢?
接收方,对对方发过来的每一个数据都有一个应答,我们在应答的时候就可以告诉对方我的接受能力,我的发送速度是由对方接收能力来决定的,对方的接受能力取决于,接收缓冲区中剩余空间的大小,所以:
1、每个报文都有应答
2、自己是知道自己的接受能力的
所以有了16为窗口大小,这就是流量控制
对方就会把剩余空间大小填到16位窗口大小里,根据16位窗口决定发送方最多还可以发送多少数据

填谁的接受缓冲区的剩余空间的大小?
填自己的,凡是我要构建TCP报文,必定是我要给对方发信息,无论是发数据还是应答,还是数据加应答,填的都是自己的信息
所以叫做流量控制,我们双方就不用担心发送太快的问题,数据就不会丢失,既然我们发的太快了,那如果C端发的太慢了,流量控制也会给你加快点,提速。
比如S端还剩100kb的空间,C端给S端发了,S端上层立马取走了数据,空间变的很大了,S端立马就给C端同步的缓冲区变为4096了,变的很大了,C端就立马发快了

一旦校验失败了,该报头和数据立马丢弃,这就是真正的丢包,但是不用担心,可以超时重传

保留就是有时间就用
TCP在正常通信的时候,来不及接受,我可以给你补发,但不是最优的选择,是低效率的表现
当我们进行首次发送的时候,我怎么知道你的接受大小?怎么保证第一次发送就不会过快或过慢?
双方在进行TCP的时候,第一次并不是通信的时候,在通信之前早就发送报文交换了,在三次握手之前就至少发送一次报文交换了。
第一次交换的时候,并没有有效载荷,大小肯定是合适的,当接收方空间满了,上层还没取走,发送方会不断发送窗口探测,没有有效载荷,当接收方被上层收走了,接收方也会给发送方通知一下,窗口更新

滑动窗口

在这里插入图片描述

收发是串行的,收发效率就低下,
一般是Client给server塞大量报文,server给client大量响应,两种方法都可能会同时存在
TCP协议,可靠性是主要研究的问题,但是不是全部
效率问题,也是TCP考虑的问题
不管并发访问多少,但是对方是由接受能力上限的,所以发送方并发发送,一定要在对方能够接受的前提条件下,进行并发发送
所以我们发送方目前最大一次可以向对方发送多少的数据呢?由对方的窗口大小决定(目前这样认为)

1、先谈滑动窗口一般情况

滑动窗口,其实是发送缓冲区里的一部分,里面的数据暂时不用收到应答,可以直接发送,但是不能超过对方窗口大小
滑动窗口的左侧部分数据,已经发送已经确认,可以被覆盖,是无效数据,右侧是尚未发送的数据区域,在滑动窗口的数据,可以直接发送,但是尚未收到应答,有了应答,窗口就要滑动了
滑动窗口应该是多大的?
和对方的接受能力有关,应答报文中win大小(目前)
所以我们对应的谁向滑动窗口放数据?
用户,向尚未发送的数据区域放数据

1.1、如何理解滑动窗口
发送缓冲区当成一个char类型的数组,大小与系统有关,
上层拷贝下来的数据,数组就天然有了编号,滑动窗口就是一块数组区间,本质就是由两个数组下标维护的数组区间
所以滑动窗口未来是要扩大或移动,本质上就是对两个数组下标进行++,这就是滑动窗口

2、再谈特殊窗口

1)滑动窗口只能向右滑动吗?可以向左滑动吗?
不能向左,因为左边数据已经发送了,无意义了

2)滑动窗口能变大,变下吗?能变0吗,变0之后,表示什么意思?
能变大,取决于对方给我通告的win大小,本质就是winend++,能变小,我在给对方一直发报文,对方上层一直不接受,给我的win大小越来越小,所以能变小,滑动窗口的大小是浮动的,能变成0,上层一直不接受,表示对方不能在接受数据,就进入流量控制的窗口探测和窗口更新

3)能一直滑动吗?越界怎么办?
把发送缓冲区设计成环状结构,所以可以把历史数据覆盖,把环形区当成字节流

4)滑动窗口的大小,怎么更新的,依据是什么?
目前是根据对方的接受能力,响应报头中的win大小,
应答也是有序的,也是按序达到,应答的seq,winstart = seq,这就是起始位置,应答的win,winend = winstart + win,这就是更新

5)滑动窗口内部的报文既然可以直接发送多个报文,如果第一个丢失了呢?中间的丢失了呢,最后一个丢失呢?
比如:1000,2000,3000,4000,如果1000丢了,2000,3000,4000中任意一个收到了,有两种情况, 数据丢了,应答丢了
收到2001和3001时,所以1000也收到了,所以应答丢了,我们一点也不担心,
但是数据丢了,在2000和3000,4000给你的应答,接收方收了2000,3000,4000,但是接收方的ACK只能写1001
所以会收到很多重复的ACK序号,TCP就能确定数据数据丢了,进行补发,滑动窗口就不会动,一直等,等超时重传,补发后,ACK就会一下到6001,7001,8001
要支持重传,就必须被暂时保持起来,保存在滑动窗口中
中间丢失会传化成第一个丢失,所以滑动窗口中的丢失都会传化成第一个丢失

在这里插入图片描述

当中间某一个报文丢失了,连续收到三个同样的序号ACK后,就会对最近的报文做确认,进行重传,这就是快重传,决定重传的下限,即超时重传,一个决定重传的上限,即快重传,超时重传效率会低下
快重传是收到三个同样的ACK才是快重传

拥塞控制

所以client的发送数据都会经过网络,万一是网络出问题呢?
TCP不仅把c和s端考虑了,还考虑了网络,网络中有大量的接收方和发送方,都是遵守的TCP/IP协议
假设考操作系统,成绩出来后,有1到2个人挂科,是同学的问题,可是有30人,只有1到2个人过了,其他人都挂了,这就是题的问题,学校就出了教学事故,所以同样是挂科,挂少和挂多是不同的事情
同理,如果A主机给B主机发信息,只有1到2个报文丢失了,这是正常的,给你补上就是了,如果发10000报文,丢了9999报文,就是网络的问题

当大量丢包的时候,发送方的发送策略是什么?
超时重传/快重传还是等等再发呢,是等等再发,一旦我们谈网络,一定会有其他主机,C端向S发送数据,S端出现大面积丢包,3给4发,5给6发,4和6主机也可能大面积丢包
一旦网络出现拥塞,会覆盖这个网络的所有主机,如果一旦超时重传,所有主机也会超时重传,同一时间,出现大量补发,反而会加重网络拥塞
发送网络拥塞了,就减少发送量,如果少量报文,丢了就继续超时重传,
发生网络拥塞了,要保证:
1、保证网络拥塞不能加重
2、在网络拥塞有起色的情况下,尽快恢复网络通信

拥塞窗口

在这里插入图片描述

A向B发送1个2个3个4个报文,发送了网络拥塞,发送方要基本得知网络拥塞的严重程度,必须要进行网络状态的探测
需要对当前的网络情况进行衡量,就有了拥塞窗口,超过这个拥塞窗口的大小时,就可能会发生网络拥塞,没有超过,就小概率的发生网络拥塞
拥塞窗口就是发送方主机,衡量网络健康状态的指标
拥塞窗口:网络的状态是变化的,衡量网络健康状态,即拥塞窗口大小一定是变化的
但是作为主机的你,你怎么知道网络的健康状态是什么样子的呢?
尝试与探测出来的,所以发送方主机一直都要想办法得到当前网络的拥塞窗口,所以发送方:滑动窗口 = min(对端主机的接受能力win,网络的拥塞窗口)
win_start = seq;
win_end = min(seq_win,拥塞窗口)
A主机向B发送数据,一旦识别网络发生拥塞了,如何设置成1呢,把拥塞窗口设置成1就行了,滑动窗口就成1了,也不用担心滑动窗口一直在增长了

为什么用指数增长的方式增长拥塞窗口?
比如:在旧社会,有一些地主、他们有一些土地,有个地主张三,有个农民李四,张三来问李四,你欠我房租什么时候还,李四没钱还,张三就说你一天给我一粒米,明天二粒米,后天给4粒米,李四只会算短期的账,给到20多天时,就发现给不起了,但是地主后面也发送这样太害人了,就说换到1000粒时,就不用还2000了,就变到1001、1002了,为了更压榨农民,就从指数增长变为线性增长
李四为什么会给呢,因为前面给的少
但是一旦过了一个临界点增长速度就快
所以慢启动就是指初时慢,但是增长速度非常快,是为了快速让网络恢复,前期慢,是为了探测,但是也不能一直指数增长吧,到达一个阈值就变为线性增长

慢启动的算法指数增长在增长的同时,在增长到一个阈值时,就线性增长,这也是在不断探测新的拥塞窗口的大小,
在未来的时候又发生网络拥塞,就探测到了拥塞窗口的底线为24,然后把下一个拥塞窗口变为1,慢启动,把上一次拥塞窗口大小砍到一半,就是下一个拥塞窗口的阈值,值为12
整个网络发送就是不断慢启动,然后发生网络拥塞,然后又慢启动
所以拥塞窗口会一直被os维护,所以拥塞窗口一直在更新,就是一直在探测,指数增长和线性增长就是在探测
不断调整拥塞窗口的大小,就是间接控制滑动窗口
在我们计算机中,一定时时刻刻,都会存在一个拥塞窗口的大小

延迟应答&&捎带应答

应答,就是通告我的接受能力的,win
我们只要给对方通告更大的win大小,就能在较大概率上,提高传送效率
对方可能就会更新出更大的滑动窗口大小,就可以一次并发给我们发送更多的数据
你怎么给我更新出一个更大的接收窗口,只要让上层尽快交付,才有可能更新出更大的接收能力,但是我又不知道什么时候交付
所以给上层更多的时间,来进行读取
给更多时间好处就是:
1、让他在这段时间,尽快读取
2、如果一直在读,读取更多
所以有延迟应答,所以本质是为了提高效率

在这里插入图片描述

其实三次握手就相当4次握手,因为SNY连同ACK一起发过来了,这就是捎带应答

TCP的可靠性:校验和、序列号、确认应答、超时重发、连接管理、流量控制、拥塞控制
提高性能:滑动窗口、快速重传、延迟应答、捎带应答

面向字节流

我们把1000个数据交给操作系统,os可能发生了几次刷新,我们不关心,而我们就只看见认为一次刷新

对于底层,我们看到的二进制都是二进制流,在上层读到二进制流,就知道是什么意思,所以就有编码,操作系统并不关心协议,协议本质就是阐述一个事实,解释os里的二进制流
所以协议就是编码
当在读数据的时候,并不是从硬件直接读到用户层,在触发读的时候,就是在系统调用,操作系统先把数据搬到文件缓冲区里,这时候read、write才起作用,般了几次,还是拷多少kb,我们不关心,你可能一次拷完了,但是OS也许拷了很多次

粘包问题

TCP会存在粘包问题,是因为他是面向字节流,没有边界
TCP是被使用的,TCP不认识二进制流,但是上层认识,TCP并不知道这些二进制流的意义
当TCP收到http请求,发给对方,也许收到了1个半2个半,但是我们并不知道是不是一个完整的报文,你必须要读完整的报文,读不完整,交给上层,上层解析不出来
这种多读,少读,就是粘包问题,所以序列化和反序列化之前先要解决粘包问题
为什么要分清报头和有效载荷,就是怕粘包问题
比如:蒸包子,就想拿一个,但是拿了多个或就一个皮,所以蒸的时候会一个一个分开,分开,就是解决粘包问题,明确包子与包子的边界
如何解决,比如之前整个报文就有\r\n,就以\r\n来区别报文

UDP不存在粘包问题,因为UDP中携带定长报头加报文的长度,有明显的边界,一定是一个完整的报文,不会出现半个的,所以UDP直接序列化和反序列化

TCP协议只有4位首部长度,没有有效载荷的长度,因为他不需要,能根据4位首部长度去掉报头,剩下的就是有效载荷,还有校验和,也是按序到达的,所以不需要有效长度

内存泄漏,肯定是malloc和new申请空间了,不还,内存申请多了,然后进程挂掉了,曾经的那些堆空间还在不在,这些内存在不在?
不在了,因为进程的pcd、页表、空间都是os管理的,进程挂掉了,os会回收的
同样的网络也是如此,建立一个链接也是os帮你建立的,进程退出了,os会私自给你做四次挥手
关机之前,进程都要先杀掉的,关机前,底层会自动进行4次挥手,这就是为什么关机有时候快,有时候慢

TCP的链接和管理的作用,是由上层来做,是应用层来维护的,因为只有应用层才知道要连接多久

以前QQ是UDP来做的,UDP不用建立连接,不用维护成本,你给我发消息,我就给你转过去,是即时通信的

面试题:用UDP来实现可靠性,怎么做?
引入序列化:保证数据顺序
确认应答:确保对端收到了数据…

二、三次握手和四次挥手

在这里插入图片描述
服务端状态转化:

  • [CLOSED -> LISTEN] 服务器端调用listen后进入LISTEN状态, 等待客户端连接;
  • [LISTEN -> SYN_RCVD] 一旦监听到连接请求(同步报文段), 就将该连接放入内核等待队列中, 并向客户端发送SYN确认报文.
  • [SYN_RCVD -> ESTABLISHED] 服务端一旦收到客户端的确认报文, 就进入ESTABLISHED状态, 可以进行读写数据了.
  • [ESTABLISHED -> CLOSE_WAIT] 当客户端主动关闭连接(调用close), 服务器会收到结束报文段, 服务器返回确认报文段并进入CLOSE_WAIT;
  • [CLOSE_WAIT -> LAST_ACK] 进入CLOSE_WAIT后说明服务器准备关闭连接(需要处理完之前的数据); 当服务器真正调用close关闭连接时, 会向客户端发送FIN, 此时服务器进入LAST_ACK状态, 等待最后一个ACK到来(这个ACK是客户端确认收到了FIN)
  • [LAST_ACK -> CLOSED] 服务器收到了对FIN的ACK, 彻底关闭连接.

客户端状态转化:

  • [CLOSED -> SYN_SENT] 客户端调用connect, 发送同步报文段;
  • [SYN_SENT -> ESTABLISHED] connect调用成功, 则进入ESTABLISHED状态, 开始读写数据;
  • [ESTABLISHED -> FIN_WAIT_1] 客户端主动调用close时, 向服务器发送结束报文段, 同时进入FIN_WAIT_1;
  • [FIN_WAIT_1 -> FIN_WAIT_2] 客户端收到服务器对结束报文段的确认, 则进入FIN_WAIT_2, 开始等待服务器的结束报文段;
  • [FIN_WAIT_2 -> TIME_WAIT] 客户端收到服务器发来的结束报文段, 进入TIME_WAIT, 并发出LAST_ACK;
  • [TIME_WAIT -> CLOSED] 客户端要等待一个2MSL(Max Segment Life, 报文最大生存时间)的时间, 才会进入CLOSED状态

在这里插入图片描述
较粗的虚线表示服务端的状态变化情况;
较粗的实线表示客户端的状态变化情况;
CLOSED是一个假想的起始点, 不是真实状态;

三次握手

connect本质就是发起三次握手
1、什么是链接
一定在OS内同时存在多个建立好的链接,那么OS要不要把这些已经建立好的链接管理起来呢?要管理,先描述,再组织,OS内为了管理连接维护的数据结构 struct tcp_link{…}
创建并维护连接是有成本的,要消耗内存空间和CPU资源

3次握手的过程,由双方的OS系统中的TCP层自主完成
connect,触发连接,等待完成
accept,等待建立完成,获取连接
报文在路上跑,收到的时间一定有差别
对于双方来说,从来就不担心第一个报文和第二个报文丢失,连接就没成功,就没什么损失
第三次丢失就有影响,只要把最后一个ACK发出去,就说明连接成功了,但是对于客户端来说,我不知道第三次,对方收到没,所以三次握手就是在赌
客户端认为建立好了,服务端认为没建立好,客户端就可能对服务器发送消息,但是服务器认为没连接,就给客户端发送RST响应重置,
所以客户端把连接关掉,就重新进行连接,所以三次握手的本质就是在赌,赌对方收到第三个ACK,所以建立连接成功与否是有概率的

为什么是3次?不是2、4、5、6次呢

2次握手,是绝对不行的,凡是客户端发来的SYN,服务器就认为连接成功了,我拿个单片机,发送海量的SYN,一瞬间就把服务器的链接请求满了,资源就没了,海量发送SYN就叫SYN洪水, 所以2次握手,非常容易收到攻击
如果我们是主动发起连接的一方,最后一次发送ACK是没有应答的,最后一个报文是谁发的,就是谁先连接,如果是偶数次握手,就是服务器主动发起最后一个握手,如果是奇数次握手,就是客户端主动发起最后一个ACK,最后一个报文在网络中是要花时间的,所以是偶数,一定是服务器先建立好链接,所以把不确定是带给服务器,最后一个ACK客户端有没有收到,服务器不确认。

为什么是奇数不是偶数?
因为连接握手一定会发送异常,一定用概率,服务器遇到多个客户端,发送概率是很大的,但建立连接异常是不担心第一和第二次,如果是偶数次,最后一次是ACK承担连接的成本就嫁接到客户端,那服务器端面对的是多个客户端,服务器维护这个异常就是必然的,对服务器不好,所以就直接搞成奇数次握手,对应客户端来讲,就是客户端主动发起连接的,主动发送的人,在奇数当中,都是最后一个发送ACK的人,当服务器收到最后一个ACK时,就会把最后一个ACK发送异常的成本嫁接给客户端,服务器没收到ACK,客户端认为已经连接了,只需要连接重置就行了,服务端的成本维护依旧低

为什么是3次?
1)没有明明显的设计漏洞,一旦建立连接出现异常,成本嫁接到client,server端成本较低
2)验证双方通信信道的通畅情况—
三次握手是验证全双工通信信道通畅的最小成本

四次挥手

四次挥手是断开连接的最小成本
CLOSE_WAIT:一方想关连接,一方还不想关,被动关闭连接的一方,就会维持CLOSE_WAIT
在服务器或客户端通信的时候,一定不要忘记关闭fd,不关闭fd,CLOSE_WAIT会维持一段时间,这个链接状态会一直存在,可用资源会一直变少
主动断开的一方,要进入TIME_WAIT状态
TIME_WAIT:临时性状态,过一会就没了,这时候连接还在,也可以理解成不在了,是一个临界的状态,服务器主动断开的一方,在进入TIME_WAIT时候,双方进程早就退出了,但是我们的底层还是链接的,也就是port号还是在使用的,也就是为什么我们前面主动退出server,在登录的时候,要换port的原因

1、为什么要进行TIME_WAIT
保证最后一个ACK被对方收到,连接建立,异常断开也是可以的,最后一个ACK丢了,就一直等,
2、为什么是TIME_WAIT的时间是2MSL?
MSL是TCP报文的最大生存时间, 因此TIME_WAIT持续存在2MSL的话,就能保证在两个传输方向上的尚未被接收或迟到的报文段都已经消失(否则服务器立刻重启, 可能会收到来自上一个进程的迟到的数据, 但是这种数据很可能是错误的),同时,也是在理论上保证最后一个报文可靠到达(假设最后一个ACK丢失, 那么服务器会再重发一个FIN. 这时虽然客户端的进程不在了, 但是TCP连接还在, 仍然可以重发LAST_ACK);

3、sever主动关闭连接的场景?
比如:双11期间,客户端越来越多,后面又来了一个链接,这是server抗不住了,立马挂掉了,以前的连接的客户端,服务器都是主动断开的一方,服务器会存在大量的TIME_WAIT,这是服务器会尽快重启,但是还处于TIME_WAIT状态,服务器就一直等,这段时间就导致服务器无法重启,但是对于大公司来说,服务器挂掉一会也是重大失误,所以要立马重启,所以有个接口setsockopt

为什么是4次挥手?因为要双方确认

listen的第二个参数
三次握手,会在底层自动完成
netstat -natp:查看所以tcp的client和server的链接情况
telnet:测试本地连接情况
没有accept,listen的第二个参数设为1,已经连接的就只有2个,后面就出现SYN_RECV,这些SYN_RECV就是在般连接的队列里,时间非常短
TCP协议,需要在底层维护全连接队列,最大长度是:listen的第二个参数+1
比如:海底捞排队,门口排队就是为了时时刻刻保证自己餐厅内部资源的使用率是100%,海底捞不能没有外部的队列,但是如果海底捞把排队的队列越来越长,人也会离开,资源还浪费了,还比如那店门扩大一点
所以这个队列不能太长,原因:
1、因为会过多消耗OS本身的资源,本来是可以给sever使用的
2、队列太长,client不愿意等

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1250707.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

鸿蒙开发-ArkTS 语言-状态管理

鸿蒙开发-ArkTS 语言-基础语法 3. 状态管理 变量必须被装饰器装饰才能成为状态变量,状态变量的改变才能导致 UI 界面重新渲染 概念描述状态变量被状态装饰器装饰的变量,改变会引起UI的渲染更新。常规变量没有状态的变量,通常应用于辅助计算…

1. git入门操作

1. git入门操作 1、基本名词解释 图片 名词含义index索引区,暂存区master分支名,每个仓库都有个master,它作为主分支。branch其他分支,我们可以把master分支上的代码拷贝一份,重新命名为其他分支名work space就是我…

竞赛python区块链实现 - proof of work工作量证明共识算法

文章目录 0 前言1 区块链基础1.1 比特币内部结构1.2 实现的区块链数据结构1.3 注意点1.4 区块链的核心-工作量证明算法1.4.1 拜占庭将军问题1.4.2 解决办法1.4.3 代码实现 2 快速实现一个区块链2.1 什么是区块链2.2 一个完整的快包含什么2.3 什么是挖矿2.4 工作量证明算法&…

PyTorch-ReID重识别算法库与数据集资料汇总

Torchreid 是一个用于深度学习人员重新识别的库,用 PyTorch 编写,为我们的 ICCV’19 项目 Omni-Scale Feature Learning for Person Re-Identification 开发。 PyTorch-ReID的特点是 多GPU训练支持图像和视频 REID端到端培训和评估极其轻松地准备 Rei…

如何找出excel中两列数据中不同的值(IF函数的用法)

第一部分,举例: 例1: 如下图所示,A列和B列是需要比较的数据,C列为对比规则:IF(A2B2,"是","否") 示例图 例2:给B列的成绩评等级 C列的规则: IF(B2>85,&qu…

RPC和HTTP的区别

目录 1、RPC是什么 1.1 概念 1.2 RPC的组成部分 1.3 常见的 RPC 技术和框架 1.4 RPC的工作流程 2、HTTP是什么 2.1 概念 2.2 HTTP的消息格式 2.3 HTTP响应状态码有哪些 3、⭐RPC和HTTP的区别 小结 1、RPC是什么 1.1 概念 RPC(Remote Procedure Call&am…

全国甲骨文识读大会用到哪些竞赛软件

2023年,全国甲骨文识读大会第1季在“中华字都安阳”举办,天纵竞赛软件为此次高端知识竞赛提供软件支持。 甲骨文识读大会分为海选、初赛、复赛、决赛4个阶段,不分年龄、性别、职业、地域,并邀请国内甲骨文和殷商文化方面专家学者组…

Unity-类-Vector

Vector矢量 是一个基本的数学概念,它允许你描述方向和大小。在游戏和应用中,矢量通常用于描述一些基本属性,如角色的位置、物体移动的速度或两个物体之间的距离。 矢量算术是计算机编程很多方面(如图形、物理和动画)的基础,深入了解这一主题对于充分发挥 Unity 的功能很有…

python实现炫酷的屏幕保护程序!

今天写了桌面保护程序。先来看看效果吧。 完全可以作为屏保程序了,老方式:以下是实现的代码: from tkinter import *from time import strftime​def update_time():global i, j current_time strftime(%H:%M:%S)time_label.config(textcu…

软件工程简明教程

软件工程简明教程 何为软件工程? 1968 年 NATO(北大西洋公约组织)提出了软件危机(Software crisis)一词。同年,为了解决软件危机问题,“软件工程”的概念诞生了。一门叫做软件工程的学科也就应…

前车之鉴: 适用于所有select选择框的 全选反选逻辑,如何只用单个change事件优雅完成

文章目录 实际效果1.1 效果展示1.2 核心功能 Show CodeQ & A彩蛋 实际效果 1.1 效果展示 1.2 核心功能 区别网上其他思路,我这里不需要使用原生点击事件,将全选反选逻辑收敛在一个change事件上 此前已经看过一些全选逻辑同学尝试过后,会…

NX二次开发UF_CURVE_ask_combine_curves 函数介绍

文章作者:里海 来源网站:https://blog.csdn.net/WangPaiFeiXingYuan UF_CURVE_ask_combine_curves Defined in: uf_curve.h int UF_CURVE_ask_combine_curves(tag_t combine_curve_feature, tag_t * first_curve_tag, UF_CURVE_combine_curves_directi…

【阿里云】图像识别 智能分类识别 增加垃圾桶开关盖功能点和OLED显示功能点(二)

一、增加垃圾桶开关盖功能 环境准备 二、PWM 频率的公式 三、pthread_detach分离线程,使其在退出时能够自动释放资源 四、具体代码实现 图像识别数据及调试信息wget-log打印日志文件 五、增加OLED显示功能 六、功能点实现语音交互视频 一、增加垃圾桶开关盖功能…

vue3(一)-基础入门

一、导入vue.js 1.可以借助 script 标签直接通过 CDN 来使用 Vue <!-- <script src"https://unpkg.com/vue3/dist/vue.global.js"></script> -->2.也可以下载vue.global.js文件并在本地导入 <script src"./lib/vue.global.js">&…

3、Qt使用windeploy工具打包可执行文件

新建一个文件夹&#xff0c;把要打包的可执行文件exe拷贝过来 点击输入框&#xff0c;复制一下文件夹路径 点击电脑左下角&#xff0c;找到Qt文件夹&#xff0c; 点击打开 “Qt 5.12.0 for Desktop” &#xff08;我安装的是Qt 5.12.0版本&#xff09; 输入“cd bin”&#xff…

转录组学习第5弹-比对参考基因组

比对参考基因组 在构建文库的过程中需要将DNA片段化&#xff0c;因此测序得到的序列只是基因组的部分序列。为了确定测序reads在基因组上的位置&#xff0c;需要将reads比对回参考基因组上&#xff0c;这个步骤叫做比对&#xff0c;即文献中所提到的alignment或mapping。包括基…

代码随想录算法训练营第30天|回溯总结 332. 重新安排行程

回溯是递归的副产品&#xff0c;只要有递归就会有回溯&#xff0c;所以回溯法也经常和二叉树遍历&#xff0c;深度优先搜索混在一起&#xff0c;因为这两种方式都是用了递归。 回溯法就是暴力搜索&#xff0c;并不是什么高效的算法&#xff0c;最多再剪枝一下。 回溯算法能解…

自动语音识别 支持86种语言 Dragon Professional 16 Crack

从个体从业者到全球组织&#xff0c;文档密集型行业的专业人士长期以来一直依靠 Dragon 语音识别来更快、更高效地创建高质量文档&#xff0c;减少管理开销&#xff0c;以便他们能够专注于客户。了解 Dragon Professional v16 如何通过单一解决方案提高标准&#xff0c;为各个业…

YB4556 28V、1A、单节、线性锂电池充电IC

YB4556 28V 、 1A 、单节、线性锂电池充电 IC 概述: YB4556H 是一款完整的采用恒定电流 / 恒定电压的高压、大电流、单节锂离子电池线性充电 IC。最高耐压可达 28V&#xff0c;6.5V 自动过压保护&#xff0c;充电电流可达 1A。由于采用了内部 PMOSFET 架构&#xff0c;加上防倒…

推荐6款本周 yyds 的开源项目

&#x1f525;&#x1f525;&#x1f525;本周GitHub项目圈选: 主要包含 链接管理、视频总结、有道音色情感合成、中文文本格式校正、GPT爬虫、深度学习推理 等热点项目。 1、Dub 一个开源的链接管理工具&#xff0c;可自定义域名将繁杂的长链接生成短链接&#xff0c;便于保…