Python 多进程多线程线程池进程池协程

news2024/11/25 23:02:29

目录

一、线程与进程很简单的介绍

1.1 线程与进程的区别

二、多进程Process

2.1  多进程与多线程的区别

2.2 多进程为啥要使用队列

2.3 控制进程运行顺序

2.3.1  join ,

2.3.1 daemon 守护进程 

2.4 进程id

2.5 进程 存活状态is_alive()

2.5 实现自定义多进程类

三、多线程 threading

3.1 线程锁

四、线程池、进程池

4.1 线程池

4.2 进程池

4.2.1 pool.map( func, iterable) 

4.2.2  pool.map_async( func, iterable) 

4.2.3   pool.apply(self, func, args=(), kwds={})

4.2.4   pool.apply_async(self, func, args=(), kwds={})

五、协程

六、进程的相关知识

6.1 进程的各种状态

6.2 上下文切换


一、线程与进程很简单的介绍

多任务的实现方式:

多进程、多线程、协程

串行运行:

运行完命令1之后,再运行命令2。

在linux 中 ,串行多条命令用&

我们在启动tomcat时,一般是需要启动同时观察日志输出的。

sh startup.sh & tail -f ../logs/catalina.out

并行运行:

命令1与命令2,同时运行。

apt install xx && apt install yy

同时下载xx 与 yy

1.1 线程与进程的区别

1、线程与进程最大的区别在于,线程是调度的基本单位,而进程则是资源拥有的基本单位。

2、资源(主要是内存资源):进程占用内存资源,线程使用的资源是进程的。

3、切换:

进程与进程间的切换,更消耗时间。

线程与线程之间,切换,速度比较快,因为线程之间,使用的资源,都是同一个进程的。

二、多进程Process

举例:多进程下载场景

一个下载场景,我们需要从网站上下载大量的图片。比如有一万条数据。我们需要将这一万张图片下载下来。

我们将大量图片的下载链接,放到队列里。

# 多进程
from multiprocessing import Process,Queue

def download(q: Queue):
    while True:
        url = q.get()
        print(url)
        if q.empty():
            break


if __name__ == '__main__':
    tasks = Queue()
    tasks.put("http://aaa.jpg")
    tasks.put("http://bbb.jpg")

    # target 函数的名字
    # args 函数,所需的参数,这里是元组,元组里只有一个元素时,也许需要加,
    p1 = Process(target=download,args=(tasks,)) # 创建进程1
    p2 = Process(target=download, args=(tasks,)) # 创建进程1

    p1.start() # 启动进程1
    p2.start() # 启动进程2

注意:

1、# target 函数的名字
    # args 函数,所需的参数,这里是元组,元组里只有一个元素时,也许需要加逗号

    # target 函数的名字
    # args 函数,所需的参数,这里是元组,元组里只有一个元素时,也许需要加,
    p1 = Process(target=download,args=(tasks,)) # 创建进程1
    p2 = Process(target=download, args=(tasks,)) # 创建进程1

2、我们这里启动了2个进程,来执行下载任务。进程启动后,是由操作系统控制执行的。具体是并发执行还是并行执行,这个是根据操作系统来的,如果系统是单核的,就只能是并发。
如果系统是多核的,可能是并行。

3、这里图片的下载列表,用的是队列,不是list。

2.1  多进程与多线程的区别

以上面的下载大量图片的场景为例:

多进程,会独享资源,2个进程不能共享变量(例如:不能共享list),所以实现共享资源的方式,就要使用其他手段,如使用队列Queue 、 内存数据库redis等等

多线程:占用资源少,2个线程是共享变量的。一般的网盘下载之类的应用,使用的是多线程的技术。

2.2 多进程为啥要使用队列

多进程中,使用队列时,不能使用其他包的中的队列,必需使用 多进程包中的队列

from multiprocessing import Process,Queue

多进程,会独享资源,2个进程不能共享变量(例如:不能共享list),所以实现共享资源的方式,就要使用其他手段。

进程1,会占用一块单独的内存,存放 变量(list),进程2,也会占用一块单独的内存,存放 变量(list), 每个进程,都有一份自己的变量,这样执行时,list就会被执行两次。

队列可以被进程1,与进程2 共享,队列只会被遍历一次。

举个小例子:

使用list作为变量,存储数据。

from multiprocessing import Process


def worker1(data:list):
    print("worker1 开始工作")
    while data:
        print(f"worker1 取到列表中元素{data.pop()}")

def worker2(data:list):
    print("worker2 开始工作")
    while data:
        print(f"worker2 取到列表中元素{data.pop()}")

if __name__ == '__main__':
    list = [x for x in range(10)]

    p1 = Process(target=worker1,args=(list,))
    p2 = Process(target=worker2, args=(list,))

    p1.start()
    p2.start()

    print("主程序运行完毕")

打印结果:

worker1 开始工作
worker1 取到列表中元素9
worker1 取到列表中元素8
worker1 取到列表中元素7
worker1 取到列表中元素6
worker1 取到列表中元素5
worker1 取到列表中元素4
worker1 取到列表中元素3
worker1 取到列表中元素2
worker1 取到列表中元素1
worker1 取到列表中元素0
主程序运行完毕
worker2 开始工作
worker2 取到列表中元素9
worker2 取到列表中元素8
worker2 取到列表中元素7
worker2 取到列表中元素6
worker2 取到列表中元素5
worker2 取到列表中元素4
worker2 取到列表中元素3
worker2 取到列表中元素2
worker2 取到列表中元素1
worker2 取到列表中元素0

使用队列Queue作为变量,存储数据。

import time
from multiprocessing import Process,Queue


def worker1(data:Queue):
    print("worker1 开始工作")
    while not data.empty():
        print(f"worker1 取到列表中元素{data.get()}")
        time.sleep(1)

def worker2(data:Queue):
    print("worker2 开始工作")
    while not data.empty():
        print(f"worker2 取到列表中元素{data.get()}")
        time.sleep(1)

if __name__ == '__main__':
    q = Queue()
    for x in range(10):
        q.put(x)

    p1 = Process(target=worker1,args=(q,))
    p2 = Process(target=worker2, args=(q,))

    p1.start()
    p2.start()

    print("主程序运行完毕")

打印结果:

worker1 开始工作
worker1 取到列表中元素0
主程序运行完毕
worker2 开始工作
worker2 取到列表中元素1
worker1 取到列表中元素2
worker2 取到列表中元素3
worker1 取到列表中元素4
worker2 取到列表中元素5
worker1 取到列表中元素6
worker2 取到列表中元素7
worker1 取到列表中元素8
worker2 取到列表中元素9

2.3 控制进程运行顺序

2.3.1  join ,

join 以后的代码,要等当前进程运行完才开始执行

import time
from multiprocessing import Process,Queue


def worker1(data:Queue):
    print("worker1 开始工作")
    while not data.empty():
        print(f"worker1 取到列表中元素{data.get()}")
        time.sleep(1)

def worker2(data:Queue):
    print("worker2 开始工作")
    while not data.empty():
        print(f"worker2 取到列表中元素{data.get()}")
        time.sleep(1)

if __name__ == '__main__':
    q = Queue()
    for x in range(10):
        q.put(x)

    p1 = Process(target=worker1,args=(q,))
    p2 = Process(target=worker2, args=(q,))

    p1.start()
    p2.start()

    print("主程序运行完毕")

 打印结果:

worker1 开始工作
worker1 取到列表中元素0
主程序运行完毕
worker2 开始工作
worker2 取到列表中元素1
worker1 取到列表中元素2
worker2 取到列表中元素3
worker1 取到列表中元素4
worker2 取到列表中元素5
worker1 取到列表中元素6
worker2 取到列表中元素7
worker1 取到列表中元素8
worker2 取到列表中元素9

我们一共运行了三个进程,一个主进程,一个worker1 进程,一个 worker2 进程。

三个进程运行,属于并发运行。我们想要控制进程的运行顺序,可以使用join() 函数。

 运行p1 进程后,调用join()方法。

则 p1.join()后面的代码 ,只能等到p1进程运行完成后,才开始执行。

===

子进程运行完成后,再运行主进程。

p1.join()

p2.join()

2.3.1 daemon 守护进程 

在主进程,运行完成后,守护进程会被强制关闭。

# -*- coding:utf-8 -*-
# @Author: 喵酱
# @time: 2023 - 02 -25
# @File: list1.py
import os
import time
from multiprocessing import Process, Queue


def worker1(data: Queue):
    print(f"worker1 开始工作,进程id为:{os.getpid()}")
    while not data.empty():
        print(f"worker1 取到列表中元素{data.get()}")
        time.sleep(1)


def worker2(data: Queue):
    print(f"worker2 开始工作,进程id为:{os.getpid()}")
    while not data.empty():
        print(f"worker2 取到列表中元素{data.get()}")
        time.sleep(1)


if __name__ == '__main__':
    q = Queue()
    for x in range(10):
        q.put(x)

    p1 = Process(target=worker1, args=(q,))
    p2 = Process(target=worker2, args=(q,))

    p1.daemon = True
    p2.daemon = True
    print(f"主进程的id: {os.getpid()}")
    p2.start()
    p1.start()
    print("主程序运行完毕")

主进程的id: 36116
worker2 开始工作,进程id为:36117
主程序运行完毕
worker2 取到列表中元素0

注意:

1、设置守护进程

 p1.daemon = True

默认为False, 为True时,将这个进程设置为守护进程

2、只有未开始执行的进程,才能被设置成守护进程。已经开始执行的进程(已经调用start方法的进程,正在执行的进程)是不可以被设置成守护进程。

先设置 

p1.daemon = True

再执行

p1.start()

应用场景:

主进程结束后,需要同时结束其他的子进程。

2.4 进程id

我们通过os模块,来获取进程id

import os
import time
from multiprocessing import Process,Queue


def worker1(data:Queue):
    print(f"worker1 开始工作,进程id为:{os.getpid()}")
    while not data.empty():
        print(f"worker1 取到列表中元素{data.get()}")
        time.sleep(1)

def worker2(data:Queue):
    print(f"worker2 开始工作,进程id为:{os.getpid()}")
    while not data.empty():
        print(f"worker2 取到列表中元素{data.get()}")
        time.sleep(1)

if __name__ == '__main__':
    q = Queue()
    for x in range(10):
        q.put(x)

    p1 = Process(target=worker1,args=(q,))
    p2 = Process(target=worker2, args=(q,))
    p1.start()
    p2.start()
    print(f"主进程的id: {os.getpid()}")
    print("主程序运行完毕")

worker1 开始工作,进程id为:25249
主进程的id: 25248
主程序运行完毕
worker1 取到列表中元素0
worker2 开始工作,进程id为:25250
worker2 取到列表中元素1
worker1 取到列表中元素2
worker2 取到列表中元素3
worker1 取到列表中元素4
worker2 取到列表中元素5
worker1 取到列表中元素6
worker2 取到列表中元素7
worker1 取到列表中元素8
worker2 取到列表中元素9

2.5 进程 存活状态is_alive()

p1.is_alive() 为True p1进程当前为存活状态。

 

2.5 实现自定义多进程类

实现自定义多进程类的模版

from multiprocessing import Process

class MyProcess(Process):

    def __init__(self):
        super().__init__()

    def run(self) -> None:
        print("运行")

if __name__ == '__main__':
    p1 = MyProcess()
    p2 = MyProcess()

    p1.start() # start()  会调用MyProcess 中的run方法
    p2.start()

1、继承Process

2、重写run方法。start 调用的run方法

三、多线程 threading

java 程序,是多线程。jmeter 与 tomcat 是java编写的,是多线程。

nginx 是C语言编写的。nginx的工作模式,是多进程的,而不是多线程的。

什么场景适用于多线程?

--------间歇性占用CPU的场景适合多线程(IO密集型的)

比如网络io、磁盘读写的时候,是不需要消耗cpu的,此时就可以把cpu让出来,给其他线程,来支持多线程。

举个小例子:

在日常生活中,一个人可以同时熬3锅粥。每锅粥只需要小部分时间的搅拌,其他时间就等待。

工作人员,可以在第一锅粥的等待时间去给第二锅粥做搅拌,合理利用时间,来支持3个线程。

------CPU密集型的不适合多线程。

某个场景,需要一直消耗cpu,把cpu让出去,再拿回来,反而会影响我们的效率。

就比如一个人 做2道数学题。单线程就是:先做完一道,再做下一道。

多线程就是,第一道数据题,先做一分钟,然后下一分钟再去做另一道。然后再回来做第一道数学题。 这种一直需要使用cpu场景,不适合多线程。

import threading
import time


def music(name: str):
    print(f"正在播放音乐:{name}")
    time.sleep(1)


def play_game(name: str):
    print(f"正在{name}游戏")
    time.sleep(2)


if __name__ == '__main__':
    # 创建线程1

    t1 = threading.Thread(target=music, args=("无地自容",), name="线程1")

    # 创建线程2
    t2 = threading.Thread(target=play_game, args=("英雄联盟",), name="线程2")

    # 开始线程
    t1.start()
    t2.start()

    # 阻塞主程序
    t1.join()
    t2.join()

    print("所有线程都结束了")

打印结果:

正在播放音乐:无地自容
正在英雄联盟游戏
所有线程都结束了

注意:

1、可以设置每个线程的名字,name=

2、传参,是元组,当只有一个参数时,后面也需要加逗号

3、join() 可以阻塞主程序

3.1 线程锁

多线程时,尽量不要使用全局变量。

操作内存(或者文件)的代码,要上锁。同一时间,只允许一个线程进行访问。

注意:

1、锁住的代码越少越好。

举例子:

多个线程,操作同一个内存


import threading
n = 500000

def work():
    global n
    for i in range(100000):
        n -= 1
if __name__ == '__main__':
    t1 = threading.Thread(target=work,name = "线程1")
    t2 = threading.Thread(target=work, name="线程2")
    t3 = threading.Thread(target=work, name="线程3")

    t1.start()
    t2.start()
    t3.start()
    t1.join()
    t2.join()
    t3.join()
    print(n)

打印结果:

291376

分析:

n=500000

三个线程,每个线程操作n- 1000000 ,最后 n的值应该为 200000。

但是为啥最后值不对呢?

因为在某一个瞬间,多个线程对n 操作时,造成数据错乱。

比如,当n 为 100 时, 线程1 ,与线程2 在这一瞬间同时读取n, 则读到的n都是 100, 再进行-1,

线程1 与线程2 操作完后,n 的值 为 99。 我们期望的结果是 98。 线程1 与线程2 使n 减少2

解决办法,加锁


import threading
n = 500000
lock = threading.Lock()

def work():
    global n
    for i in range(100000):
        # 在对内存进行操作之前加锁
        lock.acquire()
        n -= 1
        # 在对内存进行操作之后释放锁
        lock.release()
if __name__ == '__main__':
    t1 = threading.Thread(target=work,name = "线程1")
    t2 = threading.Thread(target=work, name="线程2")
    t3 = threading.Thread(target=work, name="线程3")

    t1.start()
    t2.start()
    t3.start()
    t1.join()
    t2.join()
    t3.join()
    print(n)

打印结果:

200000

        # 在对内存进行操作之前加锁
        lock.acquire()
        n -= 1
        # 在对内存进行操作之后释放锁
        lock.release()

也可以用with lock: 这种写法来加锁


import threading
n = 500000
lock = threading.Lock()

def work():
    global n
    for i in range(100000):
        with lock:
            n -= 1
if __name__ == '__main__':
    t1 = threading.Thread(target=work,name = "线程1")
    t2 = threading.Thread(target=work, name="线程2")
    t3 = threading.Thread(target=work, name="线程3")

    t1.start()
    t2.start()
    t3.start()
    t1.join()
    t2.join()
    t3.join()
    print(n)

        

贴个链接:

python 多线程就这么简单 - 虫师 - 博客园

虫师写的很通俗易懂且经典。

值得注意的是

threads = []
t1 = threading.Thread(target=music,args=(u'爱情买卖',))
threads.append(t1)
t2 = threading.Thread(target=move,args=(u'阿凡达',))
threads.append(t2)

这里添加线程的时候,args内,即使传一个参数,后面也需要跟一个逗号

args=(u'爱情买卖',)

不然会报错。args里面传的是一个元组。

四、线程池、进程池

4.1 线程池


from multiprocessing.pool import ThreadPool
import queue


def download(q: queue.Queue):
    while not q.empty():
        print(f"从队列中,取出了{q.get()}元素")

        # 在队列中,本次的任务执行完成
        q.task_done()


if __name__ == '__main__':
    # 创建队列
    q = queue.Queue()
    for i in range(10):
        q.put(i)

    # 创建线程池
    # 线程池中,有2个线程
    pool = ThreadPool(2)

    # 异步的调用指定函数
    pool.apply_async(download, (q,))

    # 等待所有的任务做完,再做下一步
    q.join()
    print("finished")

1、线程池引入& 队列引入

from multiprocessing.pool import ThreadPool
import queue

2、多个线程异步执行(效率高)

    # 异步的调用指定函数
    pool.apply_async(download, (q,))

3、队列执行完毕的通知

q.task_done()

队列q,每执行完一次任务。就-1

q.join(),

当q中所有的任务都被执行完成时,才会执行下一行代码。

4.2 进程池

导包

from multiprocessing import Pool

4.2.1 pool.map( func, iterable) 


import time
from multiprocessing import Pool


def square(x):
    print(f"x 的平方是 {x * x}")
    time.sleep(1)
    return x * x




if __name__ == '__main__':
    # 开始运行时间
    start_time = time.time()

    # 设置进程池中,有2个进程
    pool = Pool(2)

    result = pool.map(square, [1, 2, 3, 4, 5, 6, 7])
    print(f"result is {result}")

    # 结束进程池
    pool.close()

    end_time = time.time()

    print(f"总共用了{(end_time - start_time):.2f}")

打印结果:

x 的平方是 1
x 的平方是 4
x 的平方是 9
x 的平方是 16
x 的平方是 25
x 的平方是 36
x 的平方是 49
result is [1, 4, 9, 16, 25, 36, 49]
总共用了4.05

注意:

1、pool.map(func, iterable)

func ,函数名称

iterable,一个可迭代对象

可迭代对象[1,2,3,4,5,6,7] 里的每一个元素,分别执行square 函数。(本次启动了2个进程来完成这些)

pool.map(square, [1, 2, 3, 4, 5, 6, 7])

这里我们没有调用join 函数,因为map函数可以阻塞主程序。当执行map时,可迭代对象中没有执行完所有的任务时,不会执行下一步主程序代码,所以不需要我们再加join方法。

2、时间保留了小数点后两位

end_time - start_time):.2f

3、 查看map源码

4.2.2  pool.map_async( func, iterable) 

# -*- coding:utf-8 -*-
# @Author: 喵酱
# @time: 2023 - 02 -26
# @File: jinchengchi1.py

import time
from multiprocessing import Pool


def square(x):
    print(f"x 的平方是 {x * x}")
    time.sleep(1)
    return x * x


if __name__ == '__main__':
    # 设置进程池中,有2个进程
    pool = Pool(2)

    result = pool.map_async(square, [1, 2, 3, 4, 5, 6, 7]).get() # <=> 等价于 pool.map
    print(result)

    # 结束进程池
    pool.close()

执行结果 

x 的平方是 1
x 的平方是 4
x 的平方是 9
x 的平方是 16
x 的平方是 25
x 的平方是 36
x 的平方是 49
[1, 4, 9, 16, 25, 36, 49]

pool.map 与 pool.async 有啥区别?

查看map源码。

 pool.map 比  pool.async 多调用了一个get

感觉好像,多了一个get 函数(取执行结果)之外,没啥区别。。

4.2.3   pool.apply(self, func, args=(), kwds={})

源码:

注意,传参,第一个为函数,第二个是 参数,不是可迭代对象。

举例:


import time
from multiprocessing import Pool


def num_add(x,y):
    print(f"{x} + {y} = {x+y}")
    time.sleep(1)
    return x + y




if __name__ == '__main__':

    # 设置进程池中,有2个进程
    pool = Pool(2)
    result = pool.apply(num_add,(2,3),)
    print(result)

 打印结果:

2 + 3 = 5
5

apply 与 map 的区别:

apply : 调用函数,传递任意参数

map: 把一个可迭代对象,映射到函数。(每个元素都会分别执行一次函数)

传参:

当函数里有关键参数时,传参需要加一个字典。

举例:

from multiprocessing import Pool


def num_add(x,y,z = 0):
    return x + y + z


if __name__ == '__main__':

    # 设置进程池中,有2个进程
    pool = Pool(2)
    result = pool.apply(num_add,(2,3),{"z":4})
    print(result)

给函数中的z赋值时,可以加一个字典{"z":4}

4.2.4   pool.apply_async(self, func, args=(), kwds={})

apply_async 与 apply 使用方法是一致的

表现形式上:apply_async 比 apply 多了一个get()

但是本质上, apply 会阻塞主程序,apply_async 不会阻塞主程序。

举例:


import time
from multiprocessing import Pool


def num_add(x,y):
    print(f"{x} + {y} = {x+y}")
    time.sleep(1)
    return x + y




if __name__ == '__main__':

    # 设置进程池中,有2个进程
    pool = Pool(2)
    result = pool.apply_async(num_add,(2,3),)
    print(result)
    print("运行结束")

打印结果:

<multiprocessing.pool.ApplyResult object at 0x7feb20127550>
运行结束
2 + 3 = 5

分析:

由于 子进程比较消耗时间,所以主程序先执行完,子进程后执行完。

子进程没有阻塞主程序的进行。

    result = pool.apply_async(num_add,(2,3),)
    print(result)

打印结果:

<multiprocessing.pool.ApplyResult object at 0x7fe018181790>

想要获取 result的值,需要加get()

    result = pool.apply_async(num_add,(2,3),).get()
    print(result)

打印结果:

5

当 apply_async 加了get() 之后,就等价于 apply 了。

决定 子进程是否会阻塞主程序的因素是get()

有get()就会阻塞主程序。apply 里,有get函数。

五、协程

六、进程的相关知识

6.1 进程的各种状态

就绪状态(Running):

进程已经准备好,已分配到所需资源,只要分配到CPU就能够立即运行。

运行态和就绪态之间的转换是由进程调度程序引起的,进程调度程序是操作系统的一部分。

就绪状态不消耗cpu

运行状态(Running):

进程处于就绪状态被调度后,进程进入执行状态

可中断睡眠状态:

正在运行的进程由于某些事件而暂时无法运行,进程受到阻塞。在条件满足就会被唤醒(也可以提前被信号打断唤醒),进入就绪状态等待系统调用

一般都是等待事务,这个过程很长,不知道啥时候返回结果。比如python中的input

不可中断睡眠状态(磁盘休眠状态):

除了不会因为接收到信号而被唤醒运行之外,他与可中断状态相同。

等待资源,过程很快会返回结果,毫秒级别,不用打断。在满足请求时进入就绪状态等待系统调用。

在这个状态的进程通常会等待IO的结束。

比如:

cpu是在内存里运行的,数据缺失,会去磁盘里取,读取磁盘,等待数据磁盘从数据返回,这个过程是就是不可中断。

这个过程很快。

终止状态/僵尸状态(ZOMBIE):

该进程已经结束了,但是父进程还没有使用wait()系统调用。因为父进程不能读取到子进程退出的返回代码,所以就会产生僵死进程。为了父进程能够获知它的消息,子进程的进程描述符仍然被保留,一但父进程调用wait(),进程描述符就会被释放。该进程无法再被执行

停止状态:

进程停止执行,进程不能投入运行。通常这种状态发生在接受到SIGSTOP、SIGTSTP、SIGTTIN、SIGOUT等信号(停止信号)的时候,正常停止。此外,在调试期间接受到的任何信号,都会使进程进入这种状态。

在linux中,可以使用top命令,查看s列,为每个进程的状态。

线程的就绪状态与运行状态,都是R(RUNNING)状态。我们无法从R上区分当前进程到底是就绪还是正在运行。

进程与线程:

进程之间相互独立,但同一进程下的各个线程之间共享程序的内存空间(包括代码段、数据集、堆等)及一些进程级的资源(如打开文件和信号),某进程内的线程在其它进程不可见;

6.2 上下文切换

在每个任务运行前,CPU 都需要知道任务从哪里加载、又从哪里开始运行,也就是说,需要系统事先帮它设置好 CPU 寄存器和程序计数器

CPU 寄存器,是 CPU 内置的容量小、但速度极快的内存。而程序计数器,则是用来存储CPU 正在执行的指令位置、或者即将执行的下一条指令位置。它们都是 CPU 在运行任何任务前,必须的依赖环境,因此也被叫做 CPU 上下文

CPU 上下文切换,就是先把前一个任务的 CPU 上下文(也就是 CPU 寄存器和程序计数器)保存起来,然后加载新任务的上下文到这些寄存器和程序计数器,最后再跳转到程序计数器所指的新位置,运行新任务。

3种上下文切换情况:

根据任务的不同,CPU 的上下文切换就可以分为几个不同的场景,也就是进程上下文切换、线程上下文切换以及中断上下文切换。

进程内核空间/用户空间切换导致CPU上下文切换

Linux 按照特权等级,把进程的运行空间分为内核空间和用户空间,CPU 特权等级的 Ring 0 和 Ring 3。进程既可以在用户空间运行,又可以在内核空间中运行。

进程在用户空间运行时,被称为进程的用户态,而陷入内核空间的时候,被称为进程的内核态。

从用户态到内核态的转变,需要通过系统调用来完成。

比如,当我们查看文件内容时,就需要多次系统调用来完成:首先调用 open() 打开文件,然后调用 read() 读取文件内容,并调用 write() 将内容写到标准输出,最后再调用 close() 关闭文件。

内核空间(Ring 0)具有最高权限,可以直接访问所有资源;

用户空间(Ring 3)只能访问受限资源,不能直接访问内存等硬件设备,必须通过系统调用陷入到内核中,才能访问这些特权资源。

系统调用(进程内核空间/用户空间切换)的过程发生 CPU 上下文切换

CPU 寄存器里原来用户态的指令位置,需要先保存起来。

接着,为了执行内核态代码,CPU 寄存器需要更新为内核态指令的新位置。

最后才是跳转到内核态运行内核任务 。

而系统调用结束后,CPU 寄存器需要恢复原来保存的用户态,然后再切换到用户空间,继续运行进程。

所以,一次系统调用的过程,其实是发生了两次 CPU 上下文切换。

系统调用过程中,并不会涉及到虚拟内存等进程用户态的资源,也不会切换进程。这跟我们通常所说的进程上下文切换是不一样的:

进程上下文切换,是指从一个进程切换到另一个进程运行。

而系统调用过程中一直是同一个进程在运行。

进程上下文切换

进程是由内核来管理和调度的,进程的切换只能发生在内核态。

所以,进程的上下文不仅包括了虚拟内存、栈、全局变量等用户空间的资源,还包括了内核堆栈、寄存器等内核空间的状态。

因此,进程的上下文切换就比系统调用时多了一步:

在保存当前进程的内核状态和 CPU 寄存器之前,需要先把该进程的虚拟内存、栈等保存下来;

而加载了下一进程的内核态后,还需要刷新进程的虚拟内存和用户栈。

如下图所示,保存上下文和恢复上下文的过程并不是“免费”的,需要内核在 CPU 上运行才能完成。

每次上下文切换都需要几十纳秒到数微秒的 CPU 时间。

这个时间还是相当可观的,特别是在进程上下文切换次数较多的情况下,很容易导致 CPU 将大量时间耗费在寄存器、内核栈以及虚拟内存等资源的保存和恢复上,进而大大缩短了真正运行进程的时间。

大量的上下文切换会消耗我们的cpu,导致平均负载升高。

进程切换时才需要切换上下文,换句话说,只有在进程调度的时候,才需要切换上下文。

Linux 为每个 CPU 都维护了一个就绪队列,将活跃进程(即正在运行和正在等待CPU 的进程)按照优先级和等待 CPU 的时间排序,然后选择最需要 CPU 的进程,也就是优先级最高和等待 CPU 时间最长的进程来运行。

进程在什么时候才会被调度到cpu上运行:

场景一:

就是一个进程执行完终止了,它之前使用的 CPU 会释放出来,这个时候再从就绪队列里,拿一个新的进程过来运行。

场景二:

为了保证所有进程可以得到公平调度,CPU 时间被划分为一段段的时间片,这些时间片再被轮流分配给各个进程。

这样,当某个进程的时间片耗尽了,就会被系统挂起,切换到其它正在等待 CPU 的进程运行。

场景三:

进程在系统资源不足(比如内存不足)时,要等到资源满足后才可以运行,这个时候进程也会被挂起,并由系统调度其他进程运行。

场景四:

当进程通过睡眠函数 sleep 这样的方法将自己主动挂起时,自然也会重新调度。

场景五:

当有优先级更高的进程运行时,为了保证高优先级进程的运行,当前进程会被挂起,由高优先级进程来运行。

场景六:

发生硬件中断时,CPU 上的进程会被中断挂起,转而执行内核中的中断服务程序。

线程上下文切换

线程与进程最大的区别在于,线程是调度的基本单位,而进程则是资源拥有的基本单位。

所谓内核中的任务调度,实际上的调度对象是线程;而进程只是给线程提供了虚拟内存、全局变量等资源。

可以这么理解线程和进程:

当进程只有一个线程时,可以认为进程就等于线程。

当进程拥有多个线程时,这些线程会共享相同的虚拟内存和全局变量等资源。这些资源在上下文切换时是不需要修改的。

另外,线程也有自己的私有数据,比如栈和寄存器等,这些在上下文切换时也是需要保存的。

线程的上下文切换其实就可以分为两种情况:

第一种,前后两个线程属于不同进程。此时,因为资源不共享,所以切换过程就跟进程上下文切换是一样。

第二种,前后两个线程属于同一个进程。此时,因为虚拟内存是共享的,所以在切换时,虚拟内存这些资源就保持不动,只需要切换线程的私有数据、寄存器等不共享的数据

同进程内的线程切换,要比多进程间的切换消耗更少的资源,而这,也正是多线程代替多进程的一个优势

中断上下文切换

为了快速响应硬件的事件,中断处理会打断进程的正常调度和执行,转而调用中断处理程序,响应设备事件。而在打断其他进程时,就需要将进程当前的状态保存下来,这样在中断结束后,进程仍然可以从原来的状态恢复运行。

跟进程上下文不同,中断上下文切换并不涉及到进程的用户态。所以,即便中断过程打断了一个正处在用户态的进程,也不需要保存和恢复这个进程的虚拟内存、全局变量等用户态资源。

中断上下文,其实只包括内核态中断服务程序执行所必需的状态,包括 CPU 寄存器、内核堆栈、硬件中断参数等。对同一个 CPU 来说,中断处理比进程拥有更高的优先级,所以中断上下文切换并不会与进程上下文切换同时发生。同样道理,由于中断会打断正常进程的调度和执行,所以大部分中断处理程序都短小精悍,以便尽可能快的执行结束。另外,跟进程上下文切换一样,中断上下文切换也需要消耗 CPU,切换次数过多也会耗费大量的 CPU,甚至严重降低系统的整体性能。所以,当你发现中断次数过多时,就需要注意去排查它是否会给你的系统带来严重的性能问题

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/373463.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

python“r e 模块“常见函数详解

正则表达式&#xff1a;英文Regular Expression,是计算机科学的一个重要概念&#xff0c;她使用一种数学算法来解决计算机程序中的文本检索&#xff0c;匹配等问题&#xff0c;正则表达式语言是一种专门用于字符串处理的语言。在很多语言中都提供了对它的支持&#xff0c;re模块…

python+pytest接口自动化(2)-HTTP协议基础

HTTP协议简介HTTP 即 HyperText Transfer Protocol&#xff08;超文本传输协议&#xff09;&#xff0c;是互联网上应用最为广泛的一种网络协议。所有的 WWW 文件都必须遵守这个标准。设计 HTTP 最初的目的是为了提供一种发布和接收 HTML 页面的方法。HTTP 协议在 OSI 模型中属…

外贸人用远程工具进行跟单的详细操作

大多了外贸企业为了能保证公司的正常运作&#xff0c;是允许员工远程办公甚至居家办公的。那么作为外贸人员如何用远程软件跟单&#xff1f;怎么用远程软件进行跟单操作&#xff1f; 今天就分享外贸人用远程工具进行跟单的详细操作。 首先我们需要远程连接到我们办公的电脑或服…

JavaScript:严格模式

一、理解严格模式 1.1、JavaScript 是一门弱类型语言&#xff0c;为了防止导致不可预测的错误&#xff0c;增加代码规范&#xff0c;为了使编写的代码变得更合理、更安全、更严谨&#xff0c;ECAMscript5 提出了"严格模式"&#xff0c;处于严格模式下运行的 JavaScr…

Mybatis 分页插件 PageHelper

Mybatis 分页插件 PageHelper 使用步骤&#xff1a;(不咋好用) 1.导入依赖&#xff1a; <dependency><groupId>com.github.pagehelper</groupId><artifactId>pagehelper-spring-boot-starter</artifactId><version>1.3.0</version&g…

《图机器学习》-GNN 《A Single Layer of a GNN》

这里写目录标题一、A Single Layer of a GNN二、Classical GNN Layer1、GCN2、GraphSAGE3、GAT三、GNN Layer in Practice一、A Single Layer of a GNN 单层的神经网络包括两个部分&#xff1a; 消息转换(Message)信息聚合(Aggregation) GNNLayerMessageAggregationGNN\ Laye…

物联网的新应用--触摸物联网

摘要&#xff1a;本文介绍一下触摸物联网的新进展--电子皮肤的物联网应用。还以为物联网的作用领域单单是从现场采集数据或者传输命令到执行设备吗&#xff1f;不&#xff0c;物联网的应用范围远比控制一盏灯大的多。据网上报道&#xff0c;香港城市大学&#xff08;城大&#…

【软件测试面试题】大厂头条:如何定位bug?实际案例拿offer还不简单......

目录&#xff1a;导读前言一、Python编程入门到精通二、接口自动化项目实战三、Web自动化项目实战四、App自动化项目实战五、一线大厂简历六、测试开发DevOps体系七、常用自动化测试工具八、JMeter性能测试九、总结&#xff08;尾部小惊喜&#xff09;前言 问题&#xff1a; 用…

【数据结构】二叉树的四种遍历方式——必做题

写在前面学完上一篇文章的二叉树的遍历之后&#xff0c;来尝试下面的习题吧开始做题144. 二叉树的前序遍历 - 力扣&#xff08;LeetCode&#xff09;94. 二叉树的中序遍历 - 力扣&#xff08;LeetCode&#xff09;145. 二叉树的后序遍历 - 力扣&#xff08;LeetCode&#xff09…

Git使用笔记

分支branch切换到另一个分支git checkout 你要切换到的分支的名字git checkout master将本地的这个分支branch1和gitee上的branch1进行合并&#xff08;本地的branch1有的&#xff0c;gitee上branch1没有的增加上去&#xff09;git merge branch1git merge 分支的名字查看本地是…

图解LeetCode——剑指 Offer 25. 合并两个排序的链表

一、题目 输入两个递增排序的链表&#xff0c;合并这两个链表并使新链表中的节点仍然是递增排序的。 二、示例 2.1> 示例1&#xff1a; 【输入】1->2->4, 1->3->4 【输出】1->1->2->3->4->4 限制&#xff1a; 0 < 链表长度 < 1000 三、…

1、RocketMQ概述

文章目录1 MQ概述1.1 MQ简介1.2 MQ用途1.3 常见MQ产品1.4 MQ常见协议2 RocketMQ概述2.1 RocketMQ简介2.2 RocketMQ发展历程尚硅谷RocketMQ教程-讲师&#xff1a;Reythor雷&#xff08;老雷&#xff09; 我们缺乏的不是知识&#xff0c;而是学而不厌的态度 1 MQ概述 1.1 MQ简介…

实例9:四足机器人运动学正解平面RR单腿可视化

实例9&#xff1a;四足机器人正向运动学单腿可视化 实验目的 通过动手实践&#xff0c;搭建mini pupper四足机器人的腿部&#xff0c;掌握机器人单腿结构。通过理论学习&#xff0c;熟悉几何法、旋转矩阵法在运动学正解&#xff08;FK&#xff09;中的用处。通过编程实践&…

一个好的python文件可以有几种用途?

大家好鸭&#xff01;我是小熊猫~ 这次来带大家浅浅回顾一点python小知识~ 源码资料电子书:点击此处跳转文末名片获取 python文件总共有两种用途&#xff1a; 一种是执行文件另一种是被当做模块导入 编写好的一个python文件可以有两种用途&#xff1a; 1. 脚本&#xff0c;…

Laravel框架02:路由与控制器

Laravel框架02&#xff1a;路由与控制器一、路由配置文件二、路由参数三、路由别名四、路由群组五、控制器概述六、控制器路由七、接收用户输入一、路由配置文件 以web网页路由文件为例&#xff1a; 默认根路由 路由定义格式Route::请求方式(请求的URL, 匿名函数或控制响应的方…

【MongoDB】一、MongoDB的安装与部署

【MongoDB】一、MongoDB的安装与部署实验目的实验内容实验步骤一、下载MongoDB安装包二、创建文件夹data及子文件夹db和log三、启动MongDB服务1. 在命令行窗口执行启动MongoDB服务命令2. 打开mongodb.log3. 打开浏览器进行启动验证四、登录MongoDB五、配置环境变量六、将MongDB…

yii-shopwind商城多数页面报错,修改mysql一个配置就解决!

解决办法打开mysql配置文件&#xff0c;在[mysqld]下添加如下一行&#xff1a;sql_modeNO_ENGINE_SUBSTITUTION,STRICT_TRANS_TABLES成功解决!还以为是网站的代码问题, 惊讶到我了. 开源网站下载下来就报错 多不可思议. 终于是配置的问题!加油报错信息如下是其中一个界面的&…

银行数字化转型导师坚鹏:招商银行数字化转型战略研究

招商银行数字化转型战略研究课程背景&#xff1a; 很多银行存在以下问题&#xff1a; 不清楚如何制定银行数字化转型战略&#xff1f; 不知道其它银行的数字化转型战略是如何演变的&#xff1f; 课程特色&#xff1a; 用实战案例解读招商银行数字化转型战略。 用独特视角解…

【自然语言处理】基于句子嵌入的文本摘要算法实现

基于句子嵌入的文本摘要算法实现人们在理解了文本的含义后&#xff0c;很容易用自己的话对文本进行总结。但在数据过多、缺乏人力和时间的情况下&#xff0c;自动文本摘要则显得至关重要。一般使用自动文本摘要的原因包括&#xff1a; 减少阅读时间根据摘要&#xff0c;选择自…

Widget中的State-学习笔记

Widget 有 StatelessWidget 和 StatefulWidget 两种类型。StatefulWidget 应对有交互、需要动态变化视觉效果的场景&#xff0c;而 StatelessWidget 则用于处理静态的、无状态的视图展示。StatefulWidget 的场景已经完全覆盖了 StatelessWidget&#xff0c;因此我们在构建界面时…