闭眼检测实现

news2024/9/25 19:25:20

引言

        这段代码是一个实时眼睛状态监测程序,可以用于监测摄像头捕获的人脸图像中的眼睛状态,判断眼睛是否闭合。具体应用实现作用说明如下:

1. 实时监测眼睛状态
   通过摄像头捕获的实时视频流,检测人脸关键点并计算眼睛的 EAR,实时判断眼睛是否闭合。

2. 闭眼警报
   当程序检测到用户闭眼时,通过在图像上显示 "Eyes Closed" 的文本和相应的标志,发出闭眼警报。

3. 可视化眼睛区域:
   通过在图像上绘制眼睛区域的多边形线段,直观地展示程序检测到的眼睛的位置。

4. 实时图像显示:
   将处理后的图像实时显示在窗口中,使用户能够实时观察眼睛状态的监测结果。

5. 交互式退出:
   用户可以通过按下键盘上的 Esc 键来退出程序,实现交互式控制。

啊啊啊啊啊啊那有那些应用场景呢?^_^

具体应用场景:

- 驾驶员状态监测:
          在汽车驾驶过程中,监测驾驶员的眼睛状态,及时发现驾驶员是否疲劳或注意力不集中。

- 睡眠监测:
          用于睡眠监测系统,检测用户在睡眠时的眼睛状态,可能用于分析睡眠质量。

- 用户注意力监测:
          在用户界面交互系统中,监测用户的眼睛状态,判断用户是否在关注屏幕。

- 医疗应用:
          在医疗领域中,监测患者的眼睛状态,特别是在眼科医疗中可能会有一些应用。

注意:
        这段代码的精度和稳定性可能受多方面因素影响,如光照条件、摄像头质量等。在实际应用中,可能需要进一步优化和调整参数,以适应不同场景和需求。

1.依赖组件:

        这段代码使用了以下几个主要的组件和库:

1. OpenCV (cv2): OpenCV 是一个计算机视觉库,用于图像和视频处理。在这里,它被用于打开摄像头、转换图像格式、进行图像处理以及显示图像。

2. Dlib: Dlib 是一个包含用于机器学习、计算机视觉和图像处理的工具的 C++ 库。在这里,它的 Python 接口被用于进行人脸检测和关键点检测。

3. NumPy: NumPy 是一个用于科学计算的 Python 库,提供了对多维数组的支持。在这里,NumPy 用于处理数组和数学计算。

4. SciPy: SciPy 是一个用于科学计算的 Python 库,提供了在 NumPy 基础上构建的更多高级功能。在这里,SciPy 的 `distance` 模块被用于计算欧氏距离。

        这些库的组合使得这段代码能够实现从摄像头中检测人脸,提取关键点,并通过计算眼睛的纵横比 (EAR) 判断眼睛是否闭上。如果您有关于这些库的具体问题,或者希望了解它们的更多细节,请随时提问。


2.欧氏距离

        因为涉及到了欧氏距离这个数学知识,所以我还是介绍一下,以免大家懵了

        欧式距离(Euclidean Distance)是欧几里德空间中两点之间的直线距离。对于二维空间中的两个点(x1,y1)(x2,y2),它们之间的欧式距离 d 可以通过以下公式计算:

d = \sqrt{(x1 - x2)^{2} + (y1 - y2)^{2}}

        这个公式基于勾股定理,即直角三角形的斜边长度等于两条直角边长度的平方和的平方根。

        在计算机视觉和图像处理中,欧式距离常用于测量两个点之间的空间距离,或者两个向量之间的相似度。在这里,代码中可能使用了欧式距离来计算眼睛的宽度和高度,从而进行进一步的眼睛状态判断。


3.计算眼睛的横纵比

# 计算眼睛的纵横比 (EAR)
def calculate_ear(eye):
    # 计算垂直方向的欧氏距离
    vertical_1 = distance.euclidean(eye[1], eye[5])
    vertical_2 = distance.euclidean(eye[2], eye[4])

    # 计算水平方向的欧氏距离
    horizontal = distance.euclidean(eye[0], eye[3])

    # 计算纵横比
    ear = (vertical_1 + vertical_2) / (2.0 * horizontal)
    return ear

        在眼睛特征点的标记中,通常使用一个包含多个关键点的列表或数组表示眼睛的形状。这些关键点的索引通常按照特定的顺序排列,以表示眼睛的不同部位。

        在计算眼睛的 EAR 时,eye[x] 中的 x 是眼睛特征点列表中的索引值,代表了不同的关键点。具体的含义取决于你使用的眼睛特征点标记方案,但一般而言,这些关键点通常按照眼睛的周围轮廓从左上角开始,按逆时针方向标记。

常见的眼睛特征点标记包括:

- eye[0]:眼睛的左侧,水平中心
- eye[1]:眼睛的上边缘,左侧
- eye[2]:眼睛的上边缘,右侧
- eye[3]:眼睛的右侧,水平中心
- eye[4]:眼睛的下边缘,右侧
- eye[5]:眼睛的下边缘,左侧

请注意,具体的标记方案可能会因使用的数据集或库而有所不同。


4.加载 Dlib 的人脸检测器和关键点检测器

# 加载 Dlib 的人脸检测器和关键点检测器
detector = dlib.get_frontal_face_detector()
predictor = dlib.shape_predictor("D:\\Study\\PythonStudy\\people_68_face\\shape_predictor_68_face_landmarks.dat")

        1. dlib.get_frontal_face_detector(): 这是 Dlib 库提供的一个人脸检测器,用于检测图像中的人脸。get_frontal_face_detector() 返回一个人脸检测器对象,可以用于在图像中找到人脸的位置。

        2.dlib.shape_predictor("D:people_68_face\\shape_predictor_68_face_landmarks.dat文件路径"): 这是 Dlib 提供的关键点检测器,用于检测人脸的关键点,通常是面部的特定位置,如眼睛、鼻子、嘴巴等。shape_predictor 对象需要一个训练好的模型文件,该文件包含了在训练过程中学到的关键点位置的信息。在这里,模型文件的路径是指定的 shape_predictor_68_face_landmarks.dat 文件。

        这两个检测器的结合通常用于在图像中检测人脸并找到人脸的关键点位置,为后续的任务(如眼睛状态检测)提供基础。

        这个文件我已经上传


5.获取左右眼的索引

# 获取左右眼的索引
(left_eye_start, left_eye_end) = (42, 48)
(right_eye_start, right_eye_end) = (36, 42)

        这部分代码定义了左眼和右眼在检测到的人脸关键点中的索引范围。

- left_eye_start 和 left_eye_end 分别表示左眼的起始索引和结束索引。在人脸的 68 个关键点中,左眼的关键点通常是从索引 42 开始,到索引 48 结束

- right_eye_start 和 right_eye_end 分别表示右眼的起始索引和结束索引。在人脸的 68 个关键点中,右眼的关键点通常是从索引 36 开始,到索引 42 结束

        这些索引范围用于从检测到的人脸关键点中提取左眼和右眼的具体位置信息,以便后续进行眼睛状态的检测。


6.获取两只眼睛的关键点索引
 

# 获取两只眼睛的关键点索引
(left_eye_indices, right_eye_indices) = (
list(range(left_eye_start, left_eye_end)), list(range(right_eye_start, right_eye_end)))

        这部分代码用于创建包含左眼和右眼关键点索引的列表。

- left_eye_indices 是一个包含左眼关键点索引的列表,使用 list(range(left_eye_start, left_eye_end)) 来生成一个范围从 left_eye_start 到 left_eye_end - 1 的索引列表。

- right_eye_indices 是一个包含右眼关键点索引的列表,使用 list(range(right_eye_start, right_eye_end)) 来生成一个范围从 right_eye_start 到 right_eye_end - 1 的索引列表。

这两个列表将用于提取左眼和右眼的具体关键点位置信息。


7. 打开摄像头

老演员了,不介绍了

# 打开摄像头
cap = cv2.VideoCapture(0)


8.读取一帧图像用于处理

    ret, frame = cap.read()
    if not ret:
        break

        这部分代码是从摄像头读取一帧图像的常见做法。在视频处理中,cap.read() 会读取视频的下一帧,ret 表示读取是否成功,如果成功,则 ret 为 True同时 frame 包含了读取到的图像帧。如果 ret 为 False,说明视频已经读取到结尾,此时应该退出循环。

        这种检查 ret 的方式是一种常见的确保视频读取不会超出结尾的方法。


9.转换为灰度图

    # 转换为灰度图
    gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)

        这一部分代码将读取到的彩色图像转换为灰度图像。在图像处理中,有时候我们会选择在灰度图像上进行操作,因为它只有一个通道,处理起来相对简单,而且对于一些任务如人脸检测来说,灰度图像已经足够cv2.cvtColor() 函数用于颜色空间的转换,cv2.COLOR_BGR2GRAY 表示将图像从BGR(彩色)转换为灰度。

        但是在这里主要是为了减轻处理的难度,提升性能,毕竟我的电脑是轻薄本,真的太难受了。没办法使用GPU处理


10.人脸检测

    # 人脸检测
    faces = detector(gray)

        这一部分代码使用 detector 对灰度图像进行人脸检测。detector(gray) 返回检测到的人脸的矩形区域的列表。这里使用的是 Dlib 的人脸检测器


11.获取脸部关键点

# 获取关键点
landmarks = predictor(gray, face)
landmarks_points = [(landmarks.part(point).x, landmarks.part(point).y) for point in range(68)]


- predictor(gray, face): 使用Dlib的关键点检测器 predictor 检测人脸上的关键点。
- landmarks: 包含检测到的人脸关键点的对象。
- landmarks_points: 将关键点的 x 和 y 坐标存储为元组的列表。

        这部分代码使用 Dlib 的关键点检测器 (predictor) 获取人脸上的 68 个关键点的坐标。 landmarks_points 变量包含了这些坐标。


12.获取眼部关键点坐标

        # 获取左右眼的关键点坐标
        left_eye = landmarks_points[left_eye_indices[0]:left_eye_indices[-1] + 1]
        right_eye = landmarks_points[right_eye_indices[0]:right_eye_indices[-1] + 1]

这段代码用于从检测到的面部关键点中提取左眼和右眼的关键点坐标。

- left_eye_indices 和 right_eye_indices 是左右眼的关键点索引范围,分别包含了人脸关键点中左眼和右眼的索引。

- landmarks_points 包含了检测到的面部的所有68个关键点的坐标。

- left_eye 存储了左眼的关键点坐标,通过使用左眼的索引范围从 landmarks_points 中进行切片操作得到。

- right_eye 存储了右眼的关键点坐标,同样是通过切片操作得到。

        这样,通过 left_eye 和 right_eye,你可以获得左眼和右眼的关键点坐标,从而进行后续的处理,比如计算眼睛的形状、检测眨眼等。


13.计算左右眼的横纵比

# 计算左右眼的EAR
left_ear = calculate_ear(left_eye)
right_ear = calculate_ear(right_eye)

这段代码用于计算左眼和右眼的EAR(Eye Aspect Ratio,眼睛纵横比)。

- calculate_ear 是一个函数,接收一个眼睛的关键点坐标列表作为参数,并返回计算得到的眼睛的EAR值。

- left_ear 存储了左眼的EAR值,通过调用 calculate_ear 函数传入左眼的关键点坐标得到。

- right_ear 存储了右眼的EAR值,通过调用 calculate_ear 函数传入右眼的关键点坐标得到。

通过计算眼睛的EAR值,可以用来判断眼睛的状态,例如是否闭眼。


14.判断是否闭眼

# 判断是否闭眼
if left_ear < 0.2 and right_ear < 0.2:
    cv2.putText(frame, "Eyes Closed", (50, 50), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 0, 255), 2)

这段代码用于根据左眼和右眼的 EAR 值来判断是否闭眼。具体来说:

- 如果左眼和右眼的 EAR 值都小于 0.2,那么被认为是闭眼状态

        通过 cv2.putText 函数,在视频帧上添加文字信息,显示 "Eyes Closed",文字的位置是 (50, 50),字体大小为 1,颜色为红色 (0, 0, 255),厚度为 2。这是一种简单的闭眼状态的可视化提示。


15.绘制眼部线条

# 可视化眼睛区域
left_eye_int = np.array(left_eye, dtype=np.int32)
right_eye_int = np.array(right_eye, dtype=np.int32)
cv2.polylines(frame, [left_eye_int], isClosed=True, color=(255, 255, 0), thickness=1)
cv2.polylines(frame, [right_eye_int], isClosed=True, color=(255, 255, 0), thickness=1)

这段代码的目的是在视频帧上可视化左右眼的区域,具体来说:

- left_eye_int 和 right_eye_int 分别将左眼右眼的关键点坐标转换为整数型数组。

- cv2.polylines 函数用于绘制多条线段,这里用于绘制眼睛区域的轮廓线。

        [left_eye_int] 和 [right_eye_int] 是轮廓线的坐标isClosed=True 表示将轮廓线闭合(连接起点和终点),color=(255, 255, 0) 设置线的颜色为蓝色thickness=1 设置线的厚度。这样就在视频帧上画出了左右眼的轮廓线,以便于可视化。


16.显示画面


    # 显示图像
    cv2.imshow('Eye Status', frame)

        这部分代码用于在窗口中显示处理后的图像。cv2.imshow('Eye Status', frame) 将处理后的图像(带有眼睛状态信息和可视化的眼睛区域)显示在名为 "Eye Status" 的窗口中。在这个窗口中,你可以看到实时的视频流,并且通过绘制的眼睛区域和相应的文字(例如 "Eyes Closed")来表示眼睛的状态。


17.监听键盘退出

    # 退出循环
    if cv2.waitKey(1) & 0xFF == 27:
        break

        这段代码是为了检测键盘输入,如果检测到按键为 "Esc" 键(其ASCII码为27),就退出循环,从而结束程序的执行。通常,在实时视频处理中,这样的退出机制可以帮助你方便地停止程序的执行。

        cv2.waitKey(1) 会等待键盘输入,其参数表示等待的时间(单位为毫秒)。如果在这段时间内检测到键盘输入,那么它会返回按键的 ASCII 码值。因为我们通常是检测是否按下了某个特定的按键,所以要与某个 ASCII 码值进行比较。

        在这里,0xFF 是一个十六进制常数,对应于二进制的 11111111。这是一个掩码,通过与 cv2.waitKey(1) 的结果进行按位与(bitwise AND)操作,可以获取按键的 ASCII 码值

        所以,cv2.waitKey(1) & 0xFF == 27 这个条件表达式的意思是:如果检测到的按键的 ASCII 码值为 27(对应于 Esc 键),则条件成立。在这种情况下,通常会退出循环,结束程序的执行。


 18.释放资源

# 释放资源
cap.release()
cv2.destroyAllWindows()

19.整体参考代码

import cv2
import dlib
from scipy.spatial import distance
import numpy as np

# WenJGo
# 计算眼睛的纵横比 (EAR)
def calculate_ear(eye):
    # 计算垂直方向的欧氏距离
    vertical_1 = distance.euclidean(eye[1], eye[5])
    vertical_2 = distance.euclidean(eye[2], eye[4])

    # 计算水平方向的欧氏距离
    horizontal = distance.euclidean(eye[0], eye[3])

    # 计算纵横比
    ear = (vertical_1 + vertical_2) / (2.0 * horizontal)
    return ear


# 加载 Dlib 的人脸检测器和关键点检测器
detector = dlib.get_frontal_face_detector()
predictor = dlib.shape_predictor("D:\\Study\\PythonStudy\\people_68_face\\shape_predictor_68_face_landmarks.dat")

# 获取左右眼的索引
(left_eye_start, left_eye_end) = (42, 48)
(right_eye_start, right_eye_end) = (36, 42)

# 获取两只眼睛的关键点索引
(left_eye_indices, right_eye_indices) = (
list(range(left_eye_start, left_eye_end)), list(range(right_eye_start, right_eye_end)))

# 打开摄像头
cap = cv2.VideoCapture(0)

while True:
    ret, frame = cap.read()
    if not ret:
        break

    # 转换为灰度图
    gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)

    # 人脸检测
    faces = detector(gray)

    for face in faces:
        # 获取关键点
        landmarks = predictor(gray, face)
        landmarks_points = [(landmarks.part(point).x, landmarks.part(point).y) for point in range(68)]

        # 获取左右眼的关键点坐标
        left_eye = landmarks_points[left_eye_indices[0]:left_eye_indices[-1] + 1]
        right_eye = landmarks_points[right_eye_indices[0]:right_eye_indices[-1] + 1]

        # 计算左右眼的EAR
        left_ear = calculate_ear(left_eye)
        right_ear = calculate_ear(right_eye)

        # 判断是否闭眼
        if left_ear < 0.2 and right_ear < 0.2:
            cv2.putText(frame, "Eyes Closed", (50, 50), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 0, 255), 2)

        # 可视化眼睛区域
        left_eye_int = np.array(left_eye, dtype=np.int32)
        right_eye_int = np.array(right_eye, dtype=np.int32)
        cv2.polylines(frame, [left_eye_int], isClosed=True, color=(255, 255, 0), thickness=1)
        cv2.polylines(frame, [right_eye_int], isClosed=True, color=(255, 255, 0), thickness=1)

    # 显示图像
    cv2.imshow('Eye Status', frame)

    # 退出循环
    if cv2.waitKey(1) & 0xFF == 27:
        break

# 释放资源
cap.release()
cv2.destroyAllWindows()

结语

呃,如果我会自己训练模型然后使用就好了。我只能说,加油吧加油吧!!!

期待有一天

春风得意马蹄疾,一日看尽长安花

ヾ( ̄▽ ̄)Bye~Bye~

拜拜

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1227652.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【C++】基础语法(中)

C基础语法&#xff08;中&#xff09; 文章目录 C基础语法&#xff08;中&#xff09;01数组一维数组数组初始化注意访问练习1练习2练习3普通做法&#xff1a;优化reverse函数练习4 多维数组清空数组memsetmemcpy 数组的部分由上到下&#xff0c;按规律 蛇形矩阵技巧 02 字符串…

UE 视差材质 学习笔记

视差材质节点&#xff1a; 第一个是高度图&#xff0c; Heightmap Channel就是高度图的灰色通道&#xff0c;在RGBA哪个上面&#xff0c;例如在R上就连接(1,0,0,0)&#xff0c;G上就连接&#xff08;0,1,0,0&#xff09;逐次类推 去看看对比效果&#xff1a; 这个是有视差效果…

【心得】PHP文件包含基本利用个人笔记

本文可能比较凌乱&#xff0c;快速总结保证自己看得懂&#xff08;真.个人笔记&#xff09; 文件包含的本质&#xff1a;代码复用、并行开发、模块化、增加移植性 include和eval的区别&#xff1a; include和eval一样&#xff0c;都不是函数&#xff0c;都是语言结构&#xf…

2024全网最新最全的Pytest接口自动化测试框架教程

pytest编写的规则&#xff1a; 1、测试文件以test_开头&#xff08;以_test结尾也可以&#xff09; 2、测试类以Test开头&#xff0c;并且不能带有__init__方法 3、测试函数以test_开头 4、断言必须使用assert pytest.main([-s,-v]) &#xff1a;用来执行测试用例 -s 打印prin…

CnosDB有主复制演进历程

分布式存储系统的复杂性涉及数据容灾备份、一致性、高并发请求和大容量存储等问题。本文结合CnosDB在分布式环境下的演化历程&#xff0c;分享如何将分布式理论应用于实际生产&#xff0c;以及不同实现方式的优缺点和应用场景。 分布式系统架构模式 分布式存储系统下按照数据复…

Mybatis-Plus《学习笔记 22版尚硅谷 》——感谢【尚硅谷】官方文档

Mybatis-Plus《学习笔记 22版尚硅谷 》 一、MyBatis-Plus1.简介2.特性3.支持数据库4.框架结构5.官方地址 二、入门案例1.开发环境2.建库建表3.创建工程4.配置编码5.测试查询 三、增删改查1.BaseMapper<T>2.调用Mapper层实现CRUD2.1 插入2.2 删除a、根据ID删除数据b、根据…

MySQL InnoDB 引擎底层解析(一)

6. InnoDB 引擎底层解析 MySQL 对于我们来说还是一个黑盒&#xff0c;我们只负责使用客户端发送请求并等待服务器返回结果&#xff0c;表中的数据到底存到了哪里&#xff1f;以什么格式存放的&#xff1f;MySQL 是以什么方式来访问的这些数据&#xff1f;这些问题我们统统不知…

Web安全研究(五)

Automated WebAssembly Function Purpose Identification With Semantics-Aware Analysis WWW23 文章结构 introbackgroundsystem design abstraction genapplying abstractionsclassifier data collection and handling data acquisitionstatistics of collected datamodule-…

Python---return返回值

return返回值 返回值&#xff1a;很多函数在执行完毕后&#xff0c;会通过return关键字返回一个结果给 调用它的位置。 return 英 /rɪˈtɜːn/ n. 回来&#xff0c;返回&#xff1b; 思考&#xff1a;如果一个函数需要两个return (如下所示)&#xff0c;程序如何执行&…

【数据结构(二)】单链表(3)

文章目录 1. 链表介绍2. 单链表应用实例2.1. 顺序添加方式2.1.1. 思路分析2.1.2. 代码实现 2.2. 按照编号顺序添加方式2.2.1. 思路分析2.2.2. 代码实现 3. 单链表节点的修改3.1. 思路分析3.2. 代码实现 4. 单链表节点的删除4.1. 思路分析4.2. 代码实现 5. 单链表常见面试题5.1.…

基于灰狼算法(GWO)优化的VMD参数(GWO-VMD)

代码的使用说明 基于灰狼算法优化的VMD参数 代码的原理 基于灰狼算法&#xff08;Grey Wolf Optimizer, GWO&#xff09;优化的VMD参数&#xff08;GWO-VMD&#xff09;是一种结合了GWO和VMD算法的优化方法&#xff0c;用于信号分解和特征提取。 GWO是一种基于群体智能的优化…

数据结构:红黑树讲解(C++)

红黑树 1.前言2.红黑树简述2.1概念2.2性质 3.红黑树的插入3.1关于新插入节点的颜色3.2节点的定义3.3插入新节点3.4判断插入后是否需要调整3.5插入后维持红黑树结构&#xff08;重点&#xff09;3.5.1cur、p、u为红&#xff0c;g为黑3.5.2cur、p为红&#xff0c;g为黑&#xff0…

openGauss学习笔记-127 openGauss 数据库管理-设置账本数据库-修复账本数据库

文章目录 openGauss学习笔记-127 openGauss 数据库管理-设置账本数据库-修复账本数据库127.1 前提条件127.2 背景信息127.3 操作步骤 openGauss学习笔记-127 openGauss 数据库管理-设置账本数据库-修复账本数据库 127.1 前提条件 系统中需要有审计管理员或者具有审计管理员权…

golang中的并发模型

并发模型 传统的编程语言&#xff08;如C、Java、Python等&#xff09;并非为并发而生的&#xff0c;因此它们面对并发的逻辑多是基于操作系统的线程。其并发的执行单元&#xff08;线程&#xff09;之间的通信利用的也是操作系统提供的线程或进程间通信的原语&#xff0c;比如…

Vite - 静态资源处理 - json文件导入

直接就说明白了 vite 中对json 文件直接当作一个模块来解析。 可以直接导入使用&#xff01; 可以直接导入使用&#xff01; 可以直接导入使用&#xff01;json文件中的key&#xff0c;直接被作为一个属性&#xff0c;可以单独被导入。 因此&#xff0c;导入json文件有两种方式…

72. 编辑距离(动态规划)

题目 题解 class Solution:def minDistance(self, word1: str, word2: str) -> int:# 定义状态&#xff1a;dp[i][j]表示将word1[0:i]转换成word2[0:j]所使用的最少操作数dp [[0 for j in range(len(word2)1)] for i in range(len(word1)1)]# badcase: dp[0][j] j, dp[i]…

kaggle新赛:SenNet 3D肾脏分割大赛(3D语义分割)

赛题名称&#xff1a;SenNet HOA - Hacking the Human Vasculature in 3D 赛题链接&#xff1a;https://www.kaggle.com/competitions/blood-vessel-segmentation 赛题背景 目前&#xff0c;人类专家标注员需要手动追踪血管结构&#xff0c;这是一个缓慢的过程。即使有专家…

defer和async

如果两个属性浏览器都不兼容&#xff0c;推荐把<script>标签放到底部 一般情况下&#xff0c;浏览器在解析html源文件时&#xff0c;如果遇到外部的<script>标签&#xff0c;解析过程就会先暂停&#xff0c;这时会对script进行加载&#xff0c;执行两个过程&…

【Linux进程】进程等待 与 进程替换 原理与函数使用

文章目录 一、进程等待1.1 意义 / 必要性1.2 进程等待的函数&#xff08;wait / waitpid&#xff09;1.3 status参数1.4 获取子进程status1.5 进程的阻塞等待与非阻塞等待 二、进程替换2.1 引言2.2 进程替换原理2.3 替换函数 一、进程等待 1.1 意义 / 必要性 为什么要有进程等…