【Python】从入门到上头— 多进程与分布式进程(10)

news2024/11/25 6:50:10

文章目录

  • 前言
  • 一.多进程
    • 1.fork()系统调用
    • 2.OS模块
    • 3.multiprocessing模块
    • 4.进程池(multiprocessing Pool模块)
    • 5.子进程(subprocess模块)
    • 6.进程间通信
    • 7.小结
      • 7.1.学习小结
      • 7.2.Python分布式进程报错:pickle模块不能序列化lambda函数
  • 二.分布式进程
    • 1.Python的分布式进程是什么
    • 2.如何实现分布式进程
      • 编写服务进程
      • 编写任务进程
    • 3.小结

前言

上一文章【Python】从入门到上头— 多线程(9)已经讲了Python线程和进程的区别 以及Python线程有一个GIL锁任何线程在执行前都需要获得该锁 因此Python多线程不能有效利用多核优势实现多任务

在这里插入图片描述

一.多进程

1.fork()系统调用

要让Python程序实现多进程(multiprocessing),我们先了解操作系统的相关知识。

  • Unix/Linux操作系统提供了一个fork()系统调用,它非常特殊。普通的函数调用,调用一次,返回一次,但是fork()调用一次,返回两次,因为操作系统自动把当前进程(称为父进程)复制了一份(称为子进程),然后,分别在父进程和子进程内返回。

    • 子进程永远返回0,而父进程返回子进程的ID。这样做的理由是,一个父进程可以fork出很多子进程,所以,父进程要记下每个子进程的ID,而子进程只需要调用getppid()就可以拿到父进程的ID。

2.OS模块

Python的os模块封装了常见的系统调用,其中就包括fork,可以在Python程序中轻松创建子进程:

import os

print('Process (%s) start...' % os.getpid())
# Only works on Unix/Linux/Mac:
pid = os.fork()
if pid == 0:
    print('I am child process (%s) and my parent is %s.' % (os.getpid(), os.getppid()))
else:
    print('I (%s) just created a child process (%s).' % (os.getpid(), pid))

在这里插入图片描述

由于Windows没有fork调用,上面的代码在Windows上无法运行。而Mac系统是基于BSD(Unix的一种)内核,所以,在Mac下运行是没有问题的,推荐大家用Mac学Python

  • 有了fork调用,一个进程在接到新任务时就可以复制出一个子进程来处理新任务,常见的Apache服务器就是由父进程监听端口,每当有新的http请求时,就fork出子进程来处理新的http请求

3.multiprocessing模块

如果你打算编写多进程的服务程序,Unix/Linux无疑是正确的选择。由于Windows没有fork调用,难道在Windows上无法用Python编写多进程的程序?

  • 由于Python是跨平台的,自然也应该提供一个跨平台的多进程支持multiprocessing模块就是跨平台版本的多进程模块

    • multiprocessing模块提供了一个Process类来代表一个进程对象

如:启动一个子进程并等待其结束:

from multiprocessing import Process
import os

# 子进程要执行的代码
def run_proc(name):
    print('Run child process %s (%s)...' % (name, os.getpid()))

if __name__=='__main__':
    print('Parent process %s.' % os.getpid())
    p = Process(target=run_proc, args=('test',))
    print('Child process will start.')
    p.start()
    p.join()
    print('Child process end.')

在这里插入图片描述

  • 创建子进程时,只需要创建一个Process实例,传入一个执行函数和函数的参数,用start()方法启动,这样创建进程比fork()还要简单。
    • join()方法可以等待子进程结束后再继续往下运行,通常用于进程间的同步

4.进程池(multiprocessing Pool模块)

如果要启动大量的子进程,可以用进程池的方式批量创建子进程:

from multiprocessing import Pool
import os, time, random


def long_time_task(name):
    print('Run task %s (%s)...' % (name, os.getpid()))
    start = time.time()
    time.sleep(random.random() * 3)
    end = time.time()
    print('Task %s runs %0.2f seconds.' % (name, (end - start)))


if __name__ == '__main__':
    print('Parent process %s.' % os.getpid())
    #创建长度为4的进程池
    p = Pool(4)
    
    #循环启动进程,传入调用函数和参数
    for i in range(13):
        p.apply_async(long_time_task, args=(i,))
        
    print('Waiting for all subprocesses done...')
    
    #关闭进程池,等待进程池所有子进程执行完毕
    p.close()
    p.join()
    print('All subprocesses done.')

执行结果如下:

在这里插入图片描述

代码解读:

Pool对象调用 join()方法会等待所有子进程执行完毕,调用join()之前必须先调用close(),调用close()之后就不能继续添加新的Process了

  • 请注意输出的结果,task 0,1,2,3 4 5是立刻执行的,而task 6-14要等待前面某个task完成后才执行, 由于Pool的默认大小是CPU的物理核数,我的电脑是6核的,你要提交至少7个以上子进程才能看到上面的等待效果。
    ,因此,创建13个子进程,最多同时执行6个进程。这是Pool有意设计的限制,并不是操作系统的限制。如果改成:

5.子进程(subprocess模块)

很多时候,子进程并不是自身,而是一个外部进程。我们创建了子进程后,还需要控制子进程的输入和输出。

  • subprocess模块可以让我们非常方便地启动一个子进程,然后控制其输入和输出。

如: 在Python代码中运行命令(查询域名指定类型的解析记录)nslookup www.python.org,这和命令行直接运行的效果是一样的:

import subprocess

print('$ nslookup www.baidu.com')
r = subprocess.call(['nslookup', 'www.baidu.com'])
print('Exit code:', r)

代码执行
在这里插入图片描述
命令行执行
在这里插入图片描述

如果子进程还需要输入,则可以通过communicate()方法输入:

import subprocess

print('$ nslookup')
p = subprocess.Popen(['nslookup'], stdin=subprocess.PIPE, stdout=subprocess.PIPE, stderr=subprocess.PIPE)
output, err = p.communicate(b'set q=mx\nbaidu.com\nexit\n')
print(output.decode('gbk'))
print('Exit code:', p.returncode)

上面的代码相当于在命令行执行命令nslookup,然后手动输入:

set q=mx
baidu.com
exit

代码执行
在这里插入图片描述

命令行执行
在这里插入图片描述

6.进程间通信

Process之间肯定是需要通信的,操作系统提供了很多机制来实现进程间的通信。Python的multiprocessing模块包装了底层的机制,提供了Queue、Pipes等多种方式来交换数据。

  • 以Queue为例,在父进程中创建两个子进程,一个往Queue里写数据,一个从Queue里读数据:
from multiprocessing import Process, Queue
import os, time, random


# 写数据进程执行的代码:
def write(q):
    print('Process to write: %s' % os.getpid())
    #循环写入队尾
    for value in ['1', '2', '3', '4', '5']:
        print('Put %s to queue...' % value)
        q.put(value)
        time.sleep(random.random())


# 读数据进程执行的代码:
def read(q):
    print('Process to read: %s' % os.getpid())
    #循环读取队列队头数据
    while True:
        value = q.get(True)
        print('Get %s from queue.' % value)


if __name__ == '__main__':
    # 父进程创建Queue,并传给各个子进程:
    q = Queue()
    #写进程
    pw = Process(target=write, args=(q,))
    #读进程
    pr = Process(target=read, args=(q,))

    # 启动子进程pw,写入:
    pw.start()
    # 启动子进程pr,读取:
    pr.start()

    # 等待pw结束:
    pw.join()
    # pr进程里是死循环,无法等待其结束,只能强行终止:
    pr.terminate()

在这里插入图片描述

7.小结

7.1.学习小结

  • 在Unix/Linux下,可以使用fork()调用实现多进程。

  • 要实现跨平台的多进程,可以使用multiprocessing模块。

    • 在Unix/Linux下,multiprocessing模块封装了fork()系统调用,使我们不需要关注fork()的细节
      • 由于Windows没有fork调用,因此,multiprocessing需要“模拟”出fork()的效果,父进程所有Python对象都必须通过pickle序列化再传到子进程去,所以,如果multiprocessing在Windows下调用失败了,要先考虑是不是pickle失败了
  • 进程间通信是通过Queue、Pipes等实现的

7.2.Python分布式进程报错:pickle模块不能序列化lambda函数

在这里插入图片描述
原因:
在这里插入图片描述

原来是windows操作系统问题造成的,因此稍需要我们自己定义函数,实现序列化。

  • 对代码稍加修改,定义两个函数return_task_queue和return_result_queue实现序列化
# task_master.py

import random, time, queue
from multiprocessing.managers import BaseManager

# 发送任务的队列:
task_queue = queue.Queue()
# 接收结果的队列:
result_queue = queue.Queue()


#windows要我们自己定义函数,实现序列化,然后注册到 QueueManager.register,Unix/Linux不需要
def return_task_queue():
    global task_queue
    return task_queue

def return_result_queue():
    global result_queue
    return result_queue

# 从BaseManager继承的QueueManager:
class QueueManager(BaseManager):
    pass

if __name__ == '__main__':
    # 把两个Queue都注册到网络上,callable参数关联了Queue对象
    QueueManager.register('get_task_queue', callable=return_task_queue)
    QueueManager.register('get_result_queue', callable=return_result_queue)

    # 绑定端口5000,设置验证码abc
    manager = QueueManager(address=('127.0.0.1', 5000), authkey=b'abc')

    # 启动queue
    manager.start()

    # 获得通过网络访问的Queue对象
    task = manager.get_task_queue()
    result = manager.get_result_queue()

    # 放几个任务
    for i in range(10):
        n = random.randint(0, 1000)
        print('添加任务 %d' % n)
        task.put(n)

    # 从result队列读取结果
    print('尝试获取结果')
    for i in range(10):
        r = result.get(timeout=10)
        print('结果是:%s' % r)

    # 关闭
    manager.shutdown()
    print('master exit')

在这里插入图片描述

二.分布式进程

1.Python的分布式进程是什么

Python在线程和进程汇总中,应当优选Process,因为Process更稳定,而且,Process可以分布到多台机器上,而线程最多只能分布到同一台机器的多个CPU上。

  • Python的multiprocessing模块不但支持多进程,其中**managers子模块**还支持把多进程分布到多台机器上。**一个服务进程可以作为调度者,将任务分布到其他多个进程中,依靠网络通信。
      • **由于managers模块封装很好,不必了解网络通信的细节,就可以很容易地编写分布式多进程程序

举个例子:如果我们已经有一个通过Queue通信的多进程程序在同一台机器上运行,现在,由于处理任务的进程任务繁重,希望把发送任务的进程处理任务的进程分布到2台机器上。怎么用分布式进程实现?

  • 原有的Queue可以继续使用,但是,通过managers模块把Queue通过网络暴露出去,就可以让其他机器的进程访问Queue了。

2.如何实现分布式进程

编写服务进程

  • 服务进程负责启动Queue,把Queue注册到网络上,然后往Queue里面写入任务

    # task_master.py
    import random, time, queue
    from multiprocessing.managers import BaseManager
    
    # 发送任务的队列:
    task_queue = queue.Queue()
    # 接收结果的队列:
    result_queue = queue.Queue()
    
    
    # windows要我们自己定义函数,实现序列化,然后注册到 QueueManager.register,Unix/Linux不需要
    def return_task_queue():
        global task_queue
        return task_queue
    
    
    def return_result_queue():
        global result_queue
        return result_queue
    
    
    # 从BaseManager继承的QueueManager:
    class QueueManager(BaseManager):
        pass
    
    
    if __name__ == '__main__':
        # 把两个Queue都注册到网络上, callable参数关联了Queue对象:
        QueueManager.register('get_task_queue', callable=return_task_queue)
        QueueManager.register('get_result_queue', callable=return_result_queue)
        
        # 绑定端口5000, 设置验证码'abc':
        manager = QueueManager(address=('127.0.0.1', 5000), authkey=b'abc')
        
        # 启动Queue:
        manager.start()
        
        # 获得通过网络访问的Queue对象:
        task = manager.get_task_queue()
        result = manager.get_result_queue()
        
        # 放几个任务进去:
        for i in range(10):
            n = random.randint(0, 10000)
            print('Put task %d...' % n)
            task.put(n)
            
        # 从result队列读取结果:
        print('Try get results...')
        for i in range(10):
            r = result.get(timeout=10)
            print('Result: %s' % r)
            
        # 关闭:
        manager.shutdown()
        print('master exit.')
    

重要!!!!!

  • 当我们在一台机器上写多进程程序时,创建的Queue可以直接拿来用
    • 但是,在分布式多进程环境下,添加任务到Queue不可以直接对原始的task_queue进行操作那样就绕过了QueueManager的封装,必须通过manager.get_task_queue()获得的Queue接口添加

编写任务进程

  • 在另一台机器上启动任务进程(本机上启动也可以):
# task_worker.py

import time, sys, queue
from multiprocessing.managers import BaseManager


# 创建类似的QueueManager:
class QueueManager(BaseManager):
    pass


if __name__ == '__main__':
    # 由于这个QueueManager只从网络上获取Queue,所以注册时只提供名字:
    QueueManager.register('get_task_queue')
    QueueManager.register('get_result_queue')

    # 连接到服务器,也就是运行task_master.py的机器:
    server_addr = '127.0.0.1'
    print('Connect to server %s...' % server_addr)

    # 端口和验证码注意保持与task_master.py设置的完全一致:
    m = QueueManager(address=(server_addr, 5000), authkey=b'abc')
    # 从网络连接:
    m.connect()

    # 获取Queue的对象:
    task = m.get_task_queue()
    result = m.get_result_queue()

    # 从task队列取任务,并把结果写入result队列:
    for i in range(10):
        try:
            n = task.get(timeout=1)
            print('run task %d * %d...' % (n, n))
            r = '%d * %d = %d' % (n, n, n * n)
            time.sleep(1)
            result.put(r)
        except queue.Empty:
            print('task queue is empty.')

    # 处理结束:
    print('worker exit.')
  • 任务进程要通过网络连接到服务进程,所以要指定服务进程的IP。

先启动服务进程开始执行

Put task 0...
Put task 1...
Put task 2...
Put task 3...
Put task 4...
Put task 5...
Put task 6...
Put task 7...
Put task 8...
Put task 9...
Try get results...#等待任务线程写入队列
  • task_master.py进程发送完任务后,开始等待result队列的结果。

现在启动task_worker.py进程:

Connect to server 127.0.0.1...
run task 0 * 0...
run task 1 * 1...
run task 2 * 2...
run task 3 * 3...
run task 4 * 4...
run task 5 * 5...
run task 6 * 6...
run task 7 * 7...
run task 8 * 8...
run task 9 * 9...
worker exit.
  • task_worker.py进程结束,在task_master.py进程中会继续打印出结果

在这里插入图片描述

  • 这个简单的Master/Worker模型有什么用?
    • 其实这就是一个简单但真正的分布式计算把代码稍加改造,启动多个worker,就可以把任务分布到几台甚至几十台机器上,比如把计算n*n的代码换成发送邮件,就实现了邮件队列的异步发送

Queue对象存储在哪?

  • 注意到task_worker.py中根本没有创建Queue的代码,所以,Queue对象存储在task_master.py进程中:

在这里插入图片描述

  • 而Queue之所以能通过网络访问,就是通过QueueManager实现的。由于QueueManage管理的不止一个Queue,所以,要给每个Queue的网络调用接口起个名字,比如get_task_queue。

authkey有什么用?

  • 保证两台机器正常通信,不被其他机器恶意干扰。如果task_worker.py的authkey和task_master.py的authkey不一致,肯定连接不上。

3.小结

  • Python的分布式进程接口简单,封装良好,·适合需要把繁重任务分布到多台机器的环境下。·

  • 注意Queue的作用是用来传递任务和接收结果,每个任务的描述数据量要尽量小。比如发送一个处理日志文件的任务,就不要发送几百兆的日志文件本身,而是发送日志文件存放的完整路径,由Worker进程再去共享的磁盘上读取文件。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1004139.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Axure RP 10汉化版下载 Axure RP 10 mac授权码

Axure RP10汉化版是最强大的计划,原型设计和交付给开发人员的方法,而无需编写代码。能够制作逼真的,动态形式的原型。 Axure RP 10汉化版下载 Axure RP 10 mac授权码 RP 10有什么新功能? 1.显示动态面板 使用Axure RP 10&…

【FAQ】安防监控/视频汇聚/云存储/智能视频分析平台EasyCVR显示CPU过载,如何解决?

视频云存储/安防监控/视频汇聚平台EasyCVR基于云边端智能协同,支持海量视频的轻量化接入与汇聚、转码与处理、全网智能分发、视频集中存储等。安防视频监控系统EasyCVR拓展性强,视频能力丰富,具体可实现视频监控直播、视频轮播、视频录像、云…

环境变量与Path环境变量

“环境变量”和“path环境变量”其实是两个东西,这一点大家一定要区分开,不要混为一谈。 “环境变量”是操作系统工作环境设置的一些选项或属性参数。每个环境变量由变量名和文件路径组成的,可以设置很多个环境变量。 我们一般使用环境变量…

把数组b中的值拷贝给数组a numpy.copyto(a,b)

【小白从小学Python、C、Java】 【计算机等级考试500强双证书】 【Python-数据分析】 把数组b中的值拷贝给数组a numpy.copyto(a,b) [太阳]选择题 请问关于以下代码最后输出结果的是? import numpy as np to np.array([1, 2]) print("【显示】to ",to) …

GLTF扩展使用及开发指南

glTF 扩展扩展了基本 glTF 模型格式。 扩展可以引入新的属性(包括引用外部数据的属性,并且扩展可以定义这些数据的格式)、新的参数语义、保留的 ID 和新的容器格式。 扩展是针对特定版本的 glTF 编写的,并且可能会在更高版本的 gl…

高忆管理:央行利好提振 A股三大指数收红

上证指数日K线图 受央行利好音讯刺激,9月11日A股商场震荡走强,三大指数收红,北上资金日内“去而复返”,由净流出转为净流入。 因为上周末音讯面略显平平,9月11日A股开盘较为分解,三大指数涨跌不一&#x…

518企业年会抽奖软件,支持撤消、轮空缺席弃奖

518抽奖软件简介 518抽奖软件,518我要发,超好用的年会抽奖软件,简约设计风格。 包含文字号码抽奖、照片抽奖两种模式,支持姓名抽奖、号码抽奖、数字抽奖、照片抽奖。(www.518cj.net) 操作入口 主窗口上按 CtrlZ,打开…

Linux入门-网络基础|网络协议|OSI七层模型|TCP/IP五层模型|网络传输基本流程

文章目录 一、网络基础 二、网络协议 1.OSI七层模型 2.TCP/IP五层(或四层)模型 三、网络传输基本流程 1.网络传输流程图 2.数据包封装和分用 四、网络中的地址管理 1.IP地址 2.MAC地址 一、网络基础 网络发展最初是独立模式,即计算…

系统学习Linux-防火墙(Firewall)

目录 防火墙的作用 防火墙分类 防火墙性能 硬件防火墙 软件防火墙 扩展:Web应用防火墙(WAF) 硬件防火墙与软件防火墙比较 iptables netfilter/iptables功能 iptables概念 iptables工作一句——规则(rules) iptables中链的概念 i…

【面试必刷TOP101】反转链表 链表内指定区间反转

目录 题目:反转链表_牛客题霸_牛客网 (nowcoder.com) 题目的接口: 解题思路: 代码: 过啦!!! 题目:链表内指定区间反转_牛客题霸_牛客网 (nowcoder.com) 题目的接口&#xff1…

肖sir__mysql之安装__002

mysql之安装 1、rpm -qa|grep mysql 2.删除mysql的方法: 第一种:yum remove mysql * (*表示所有) 第二种:rpm -e --nodeps 包名 强制删除mysql包 3、删除干净mysql文件,在进行安装 yum install mysql 安装…

MAML在隐式神经表示中的应用

论文 Learned Initializations for Optimizing Coordinate-Based Neural Representations 🎃Abstract1. Introduction2. Related Work3. Overview ⭐4. Results5. Conclusion6. AcknowledgementsA. Implementation details Implicit Neural Representations for Ima…

Linux IO函数

read/write函数&#xff1a; 1.read #include <unistd.h> ssize_t read(int fd, void *buf, size_t count); 参数&#xff1a; -fd&#xff1a;文件描述符&#xff0c;open得到的&#xff0c;通过这个文件描述符操作某个文件 -buf&#xff1a;需要读取数据存放的地方…

3D虚拟情景实训教学系统在法律课堂中的应用

3D虚拟情景实训教学系统是一种基于虚拟现实技术的教育工具&#xff0c;它通过模拟真实的法律场景&#xff0c;让学生能够身临其境地体验法律实践。这种教学方式可以让学生更加深入地理解法律原则和规则&#xff0c;提高他们的法律素养和实践能力。 在传统的法律课堂中&#xff…

一文了解国自然热点“超级增强子”的重要标记——H3K27ac

2023国自然结果已经揭晓&#xff0c;“超级增强子”&#xff08; Super enhancer, SE&#xff09;作为国自然新热点&#xff0c;2023年项目为32个。2019-2023年来总累计项目143项&#xff0c;但累计项目金额达6033万。此外&#xff0c;Pubmed数据统计显示5年间SE影响因子大于10…

二叉树【树的基本概念】

全文目录 树树的概念树的相关概念树的表示树的实际应用 二叉树二叉树的概念二叉树的特殊类型二叉树的性质二叉树的存储结构顺序存储链式存储 堆堆的概念向下调整算法向上调整算法堆的插入堆的删除堆的构建时间复杂度计算 堆排序TOP-K问题 树 树的概念 树是一种非线性的数据结…

华为CD32键盘使用教程

华为CD32键盘使用教程 用爱发电写的教程&#xff01; 最后更新时间&#xff1a;2023.9.12 型号&#xff1a;华为有线键盘CD32 基本使用 此键盘在不安装驱动的情况下可以直接使用&#xff0c;但是不安装驱动指纹识别是无法使用的&#xff01;并且NFC功能只支持华为的部分电脑…

固定资产预算怎么管理的

在现代企业管理中&#xff0c;固定资产预算的管理是一项至关重要的任务。它不仅关系到企业的经济效益&#xff0c;更关系到企业的长远发展。那么&#xff0c;如何进行有效的固定资产预算管理呢&#xff1f; 明确固定资产预算的目标和原则  我们需要明确固定资产预算的目标和…

HCS 中的一些概念(二)

一、Service OM 1、首页&#xff08;资源状态&#xff09; 2、服务列表 计算资源&#xff1a;计算资源又分为可用分区&#xff08;AZ&#xff09;、规格和虚拟机组&#xff0c;可在此处创建虚拟机、虚拟机组、主机组和规格 网络资源&#xff1a;网络资源又分为物理网络…

使用融云 CallPlus SDK,一小时实现一款 1V1 视频应用

9 月 21 日&#xff0c;融云直播课 社交泛娱乐出海最短变现路径如何快速实现一款 1V1 视频应用&#xff1f; 欢迎点击小程序报名~ 1V1 音视频、远程服务类应用的实现利器——融云 CallPlus SDK 上线&#xff01; 关注【融云全球互联网通信云】了解更多 作为新一代音视频通话场…