深入探究Python多进程编程:Multiprocessing模块基础与实战【第98篇—Multiprocessing模块】

news2024/11/13 15:22:21

深入探究Python多进程编程:Multiprocessing模块基础与实战

在Python编程中,多进程处理是一项关键的技术,特别是在需要处理大规模数据或执行耗时任务时。为了充分利用多核处理器的优势,Python提供了multiprocessing模块,使得并行编程变得更加容易。本文将深入探讨multiprocessing模块的基础知识,并通过实际代码示例演示其在解决实际问题中的应用。

image-20240224234012221

多进程编程基础

在了解multiprocessing模块之前,我们先来了解一下进程的基本概念。进程是计算机中运行的程序的实例,它拥有独立的内存空间和系统资源。相比于多线程,多进程更容易实现并行处理,因为每个进程都有自己的解释器和全局解释器锁(GIL)。

multiprocessing模块提供了Process类,用于创建和管理进程。以下是一个简单的示例,演示如何使用Process创建并启动两个进程:

from multiprocessing import Process
import os

def print_process_info():
    print(f"Process ID: {os.getpid()}")
    print(f"Parent Process ID: {os.getppid()}")

if __name__ == "__main__":
    # 创建两个进程
    process1 = Process(target=print_process_info)
    process2 = Process(target=print_process_info)
    
    # 启动进程
    process1.start()
    process2.start()
    
    # 等待两个进程结束
    process1.join()
    process2.join()

在这个例子中,我们定义了一个简单的函数print_process_info,该函数用于输出当前进程的ID和父进程的ID。然后,我们创建了两个Process对象,分别代表两个进程,并使用start()方法启动它们。最后,使用join()方法等待两个进程执行完毕。

实战:使用多进程进行数据处理

现在,让我们通过一个实际的例子来展示multiprocessing模块在数据处理中的应用。假设我们有一个需要处理的大型数据集,我们希望通过多进程并行处理来提高处理速度。

from multiprocessing import Pool

def process_data(data_chunk):
    # 在这里进行数据处理,这里仅作为示例,实际中需要根据具体需求进行修改
    processed_data = [item * 2 for item in data_chunk]
    return processed_data

if __name__ == "__main__":
    # 模拟一个大型数据集
    data = list(range(1000000))
    
    # 定义进程池,指定进程数量
    num_processes = 4
    with Pool(num_processes) as pool:
        # 将数据分割成多个子集,每个子集交给一个进程处理
        data_chunks = [data[i:i + len(data) // num_processes] for i in range(0, len(data), len(data) // num_processes)]
        
        # 使用进程池并行处理数据
        processed_results = pool.map(process_data, data_chunks)
    
    # 合并处理后的结果
    final_result = [item for sublist in processed_results for item in sublist]
    
    # 打印处理后的数据
    print(final_result[:10])

在这个例子中,我们使用Pool类创建了一个进程池,指定了进程的数量。然后,我们将大型数据集分割成多个子集,每个子集由一个进程处理。使用pool.map()方法并行处理这些子集,最后合并各个进程的处理结果。

代码解析

  • Pool类:进程池的创建和管理类,通过指定进程数量,可以实现并行处理。
  • map()方法:类似于内置函数map(),但是在多进程环境中运行。它将一个可迭代对象分割成多个部分,每个部分由一个进程处理。

通过上述代码解析,我们可以看到multiprocessing模块的核心概念是创建进程、使用进程池并行处理数据。这使得在处理大规模数据时,能够充分利用多核处理器的性能,提高程序的执行效率。

总结起来,multiprocessing模块为Python程序员提供了一种简便而强大的多进程处理方式,通过灵活运用这些工具,我们能够更好地解决涉及大规模数据处理或计算密集型任务的问题。

进程间通信与共享数据

在多进程编程中,不同进程之间通常是相互独立的,但有时候我们需要让它们进行通信或共享数据。multiprocessing模块提供了多种方式来实现进程间通信:

1. 队列(Queue)

队列是多进程之间安全地传递数据的一种方式。以下是一个简单的例子:

from multiprocessing import Process, Queue

def producer(queue):
    for item in range(5):
        queue.put(item)

def consumer(queue):
    while True:
        item = queue.get()
        if item is None:
            break
        print(f"Consumed: {item}")

if __name__ == "__main__":
    shared_queue = Queue()

    # 创建生产者和消费者进程
    producer_process = Process(target=producer, args=(shared_queue,))
    consumer_process = Process(target=consumer, args=(shared_queue,))

    # 启动进程
    producer_process.start()
    consumer_process.start()

    # 等待生产者生产完数据
    producer_process.join()

    # 告诉消费者不再有数据
    shared_queue.put(None)

    # 等待消费者消费完数据
    consumer_process.join()
2. 共享内存(Value、Array)

有时候我们需要在多个进程之间共享数据,multiprocessing模块提供了ValueArray来实现这一目的:

from multiprocessing import Process, Value, Array

def update_shared_data(shared_value, shared_array):
    shared_value.value += 1
    for i in range(len(shared_array)):
        shared_array[i] *= 2

if __name__ == "__main__":
    shared_value = Value('i', 0)  # 整数
    shared_array = Array('d', [1.0, 2.0, 3.0, 4.0])  # 双精度浮点数组

    update_process = Process(target=update_shared_data, args=(shared_value, shared_array))
    update_process.start()
    update_process.join()

    print(f"Updated Value: {shared_value.value}")
    print(f"Updated Array: {list(shared_array)}")

异常处理与资源管理

在多进程编程中,异常处理和资源管理尤为重要。我们需要确保进程在执行过程中的异常能够被捕获,并在进程结束时释放资源。使用tryexcept块以及finally块来实现异常处理和资源管理。

from multiprocessing import Process, Queue

def process_with_exception(queue):
    try:
        # 进程执行的代码
        result = 1 / 0  # 触发一个异常
        queue.put(result)
    except Exception as e:
        # 捕获异常,并将异常信息放入队列
        queue.put(e)
    finally:
        # 释放资源等清理工作
        print("Clean up and release resources.")

if __name__ == "__main__":
    shared_queue = Queue()
    
    process = Process(target=process_with_exception, args=(shared_queue,))
    process.start()
    process.join()

    # 从队列获取进程执行的结果或异常信息
    result_or_exception = shared_queue.get()
    print(f"Result or Exception: {result_or_exception}")

性能优化与注意事项

在使用multiprocessing模块进行多进程编程时,为了充分发挥其优势,我们需要注意一些性能优化的技巧和注意事项。

1. 进程池的重用

进程池(Pool)的创建和销毁是有开销的,为了避免频繁创建进程池,可以考虑在程序的生命周期内重用进程池。这可以通过将进程池的创建放在程序的初始化部分,并在程序结束时关闭进程池来实现。

from multiprocessing import Pool

def process_data(data_chunk):
    # 数据处理逻辑

if __name__ == "__main__":
    num_processes = 4
    with Pool(num_processes) as pool:
        # 在整个程序生命周期内重用进程池
        data_chunks = [...]
        results = pool.map(process_data, data_chunks)
    # 进程池会在程序结束时自动关闭
2. 避免过多的进程创建

尽管多进程可以提高程序的并行性,但过多的进程创建也会导致系统资源的消耗和性能下降。在确定进程数量时,需要根据系统的核心数和任务的性质进行合理的选择。可以通过os.cpu_count()获取系统的核心数,并根据具体情况调整进程数量。

import os
from multiprocessing import Pool

def process_data(data_chunk):
    # 数据处理逻辑

if __name__ == "__main__":
    num_processes = min(os.cpu_count(), 8)  # 最多使用8个核心
    with Pool(num_processes) as pool:
        # 进程池的使用逻辑
3. 注意数据的序列化与反序列化开销

在多进程编程中,数据需要在进程之间传递,而这涉及到数据的序列化和反序列化。不同的数据类型和序列化方式会对性能产生影响,因此在选择数据传递方式时需要注意。对于大型数据集,可以考虑使用multiprocessing模块中的Manager类来创建共享的数据结构,以避免不必要的数据复制。

from multiprocessing import Manager, Pool

def process_data(shared_data):
    # 在多进程中直接使用共享的数据结构

if __name__ == "__main__":
    with Manager() as manager:
        shared_data = manager.list([...])  # 使用Manager创建共享的列表

        num_processes = 4
        with Pool(num_processes) as pool:
            pool.map(process_data, [shared_data] * num_processes)

跨平台兼容性

multiprocessing模块在大多数平台上都能正常运行,但在一些特殊的情况下可能会遇到一些问题。特别是在Windows系统上,由于其进程创建的机制不同,一些全局变量和共享资源的使用可能需要格外小心。建议在跨平台开发中进行充分的测试和调试,确保程序在不同平台上都能正常运行。

安全性与锁

多进程编程涉及到多个进程同时访问共享资源的情况,因此需要考虑安全性和避免竞争条件。multiprocessing模块提供了锁(Lock)等同步原语,可以用来确保在多个进程之间安全地访问共享资源。

from multiprocessing import Lock, Process

shared_value = 0
lock = Lock()

def update_shared_value():
    global shared_value
    for _ in range(100000):
        with lock:
            shared_value += 1

if __name__ == "__main__":
    processes = [Process(target=update_shared_value) for _ in range(4)]

    for process in processes:
        process.start()

    for process in processes:
        process.join()

    print(f"Final Shared Value: {shared_value}")

在上述例子中,通过Lock确保了对shared_value的安全访问。每个进程在执行更新操作时,都需要先获取锁,更新完成后释放锁,以防止多个进程同时修改共享资源导致的问题。

调试和日志记录

在多进程编程中,由于多个进程同时运行,调试可能会变得更加复杂。为了更好地定位问题,可以使用logging模块来记录日志,以及适当的调试工具。同时,了解进程间通信的机制,以便在有需要时获取进程的状态信息。

import logging
from multiprocessing import Process

def worker_function():
    logging.info("Worker process is starting.")
    # 进程执行的代码
    logging.info("Worker process is finishing.")

if __name__ == "__main__":
    logging.basicConfig(level=logging.INFO)
    
    process = Process(target=worker_function)
    process.start()
    process.join()

在上述例子中,我们使用了logging模块记录了进程的启动和结束信息。通过适当设置日志级别,可以灵活控制记录的信息量。

异步与多进程

在一些特定的场景中,异步编程可能比多进程更为适用。异步编程通过单线程实现并发,可以有效提高程序的性能。在Python中,asyncio库提供了异步编程的支持。但需要注意,异步编程适用于I/O密集型任务,而多进程适用于计算密集型任务。

import asyncio

async def async_worker():
    # 异步任务
    await asyncio.sleep(1)
    print("Async worker finished.")

if __name__ == "__main__":
    asyncio.run(async_worker())

避免全局变量的滥用

全局变量在多进程编程中可能引发一些问题,尤其是在涉及到进程间通信时。由于每个进程拥有独立的地址空间,全局变量的修改在不同进程中并不互相影响。在需要共享数据时,应使用multiprocessing模块提供的共享数据结构。

from multiprocessing import Value, Process

shared_value = Value('i', 0)

def update_shared_value():
    global shared_value
    with shared_value.get_lock():
        shared_value.value += 1

if __name__ == "__main__":
    processes = [Process(target=update_shared_value) for _ in range(4)]

    for process in processes:
        process.start()

    for process in processes:
        process.join()

    print(f"Final Shared Value: {shared_value.value}")

在上述例子中,通过Valueget_lock()方法获取锁,确保对共享数据的安全访问。

子进程的异常处理

当子进程发生异常时,可以通过Processexitcode属性获取其退出码。一般而言,非0的退出码表示进程异常退出。

from multiprocessing import Process
import time

def process_with_exception():
    time.sleep(1)
    raise Exception("Something went wrong!")

if __name__ == "__main__":
    process = Process(target=process_with_exception)
    process.start()
    process.join()

    if process.exitcode == 0:
        print("Process executed successfully.")
    else:
        print(f"Process exited with code {process.exitcode}")

总结:

本文深入探讨了Python中多进程编程的基础知识,以及如何使用multiprocessing模块解决实际问题。通过详细的代码示例,读者了解了如何创建和管理进程、利用进程池进行数据处理、实现进程间通信和共享数据。同时,介绍了性能优化、跨平台兼容性、异常处理与资源管理等方面的注意事项,帮助读者更好地应用多进程编程。

文章强调了进程池的重用、避免过多的进程创建、注意数据的序列化与反序列化开销等性能优化技巧。跨平台兼容性、安全性与锁的考虑以及调试和日志记录等内容也被详细讨论。此外,文章还提及了异步编程与多进程的比较,以及在多进程编程中避免全局变量滥用的重要性。

最后,通过总结子进程的异常处理等关键点,强调了在多进程编程中需要注意的一些细节。通过合理运用文章中提到的知识点,读者可以更高效地应对多进程编程中的挑战,提高程序性能和可维护性。希望本文能够帮助读者更深入地理解和应用Python中的多进程编程技术。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1468679.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

echarts series中的data属性添加动态数据后不显示问题,一处儿异步细节问题

当从后端获取到数据后,发现饼图并没有顺利加载数据出来,使用console.log()测试先后执行顺序,会发现饼图的方法会比请求先执行 此时就可以把饼图的方法放入到请求执行结束后 以下为修改前: 修改后: 一处儿异步的细节问…

WPF真入门教程29--MVVM常用框架之MvvmLight

1、MVVM模式回顾 关于mvvm模式的基础知识,请看这2个文章: WPF真入门教程23--MVVM简单介绍 WPF真入门教程24--MVVM模式Command命令 做过VUE开发或微信小程序开发的伙伴,就知道MVVM模式,核心就是数据驱动控件,全栈开…

java集合--List集合的基本用法

一、ArrayList集合 1.ArrayList集合的特点 2.ArrayList集合的一些方法 ①.add(Object element) 向列表的尾部添加指定的元素。 ②.size() 返回列表中的元素个数。 ③.get(int index) 返回列表中指定位置的元素,index从0开始。 public class Test {public static …

【NTN 卫星通信】基于NTN和TN的Inter-PLMN海事应用场景

1 场景概述 NTN和TN联合组网的场景,可以有多种应用方式,以下用例描述了同时使用多个卫星PLMN和一个地面5G PLMN的海事场景。 MNO-G是一家成熟的卫星PLMN运营商,运营着几颗GEO卫星。MNO-L是一个相对较新的卫星PLMN运营商,操作LEO卫…

【解决(几乎)任何机器学习问题】:特征选择

当你创建了成千上万个特征后,就该从中挑选出⼏个了。但是,我们绝不应该创建成百上千个⽆⽤的特征。特征过多会带来⼀个众所周知的问题,即 "维度诅咒"。如果你有很多特征,你也必须有很多训练样本来捕捉所有特征。什么是 …

Guitar Pro8.2吉他乐谱软件功能测评评价

Guitar Pro 8.2吉他乐谱软件全面评价 Guitar Pro 8.2作为一款吉他乐谱软件,已经得到了广大吉他手和音乐制作人的认可。作为软件评价专家,我对这款软件进行了全面的体验和分析,以下是我在易用性、功能丰富性、用户界面设计、稳定性以及性价比…

【MATLAB源码-第146期】基于matlab的信源编码仿真GUI,对比霍夫曼编码,算术编码和LZ编码。

操作环境: MATLAB 2022a 1、算法描述 霍夫曼编码、算术编码和LZ编码是三种广泛应用于数据压缩领域的编码技术。它们各自拥有独特的设计哲学、实现方式和适用场景,因此在压缩效率、编解码速度和内存使用等方面表现出不同的特点。接下来详细描述这三种编…

open3d 将点云投影到平面

open3d 将点云投影到平面 一、算法原理二、代码三、结果展示1.原点云2.点云数据向x z 0投影 四、相关数据 一、算法原理 假设点(x0, y0, z0), 平面方程为 mx ny sz d 0 过点(x0, y0, z0),且垂直平面的直线方程…

TensorRT及CUDA自学笔记006 PTX、PTX兼容性及二进制兼容性

TensorRT及CUDA自学笔记006 PTX、PTX兼容性及二进制兼容性 PTX定义 PTX是CUDA平台的一种虚拟机器和指令集,可以理解为一种CUDA平台的汇编语言使用C编写的CUDA程序首先被转换成PTX指令集,PTX指令在经过优化后再转换为特定GPU架构对应的指令集&#xff0…

关于Arrays类中asList(T... a)泛型参数辨析

前提 我们需要知道两点 (1)T指的是泛型类型,它只能是引用类型,何为引用类型?在java中除了基本数据类型(如byte、short、int、long、float、double、boolean、char)之外的所有类型都是引用类型…

STL - 并查集

1、并查集原理 在一些应用问题中,需要将n个不同的元素划分成一些不相交的集合;开始时,每个元素自成一个 单元素集合,然后按一定的规律将归于同一组元素的集合合并;在此过程中要反复用到查询某一 个元素归属于那个集合的…

YOLOv5改进 | SPPF篇 | 利用YOLOv9最新的SPPELAN模块改进SPPF(全网独家创新,附手撕结构图)

一、本文介绍 本文给大家带来的改进机制是利用2024/02/21号最新发布的YOLOv9其中提出的SPPELAN模块来改进SPPF,其中YOLOv9针对于这个模块并没有介绍,只是在其项目文件中用到了,我将其整理出来用于我们的YOLOv5的项目,同时空间金字…

vue3中ref创建变量取值时自动补充 .value 插件 volar

插件 TypeScript Vue Plugin (Volar) 设置中配置

自然语言处理中关键概念——词嵌入(Word Embedding)

词嵌入(Word Embedding)是一种在自然语言处理中广泛使用的表示方法,它将离散的词汇表中的每个词转换为一个连续向量空间中的稠密向量。这种低维度实数向量能够捕捉词语之间的语义和句法关系。 通过训练神经网络模型(如word2vec、G…

一周学会Django5 Python Web开发-Http请求HttpRequest请求类

锋哥原创的Python Web开发 Django5视频教程: 2024版 Django5 Python web开发 视频教程(无废话版) 玩命更新中~_哔哩哔哩_bilibili2024版 Django5 Python web开发 视频教程(无废话版) 玩命更新中~共计25条视频,包括:2024版 Django5 Python we…

open3d KD-Tree K近邻点搜索

open3d KD-Tree K近邻点搜索 一、算法原理1.KD-Tree 介绍2.原理 二、代码三、结果1.原点云2.k近邻点搜索后的点云 四、相关数据 一、算法原理 1.KD-Tree 介绍 kd 树或 k 维树是计算机科学中使用的一种数据结构,用于在具有 k 维的空间中组织一定数量的点。它是一个…

【Django开发】0到1开发美多shop项目:短信验证码和RabbitMQ。全md文档笔记(附代码 文档)

本系列文章md笔记(已分享)主要讨论django商城项目相关知识。项目利用Django框架开发一套前后端不分离的商城项目(4.0版本)含代码和文档。功能包括前后端不分离,方便SEO。采用Django Jinja2模板引擎 Vue.js实现前后端…

开源世界的学术问题

自由软件基金会是1983年成立的,到现在是41年。正好很有意思的是,在去年还有一篇文章(CSDN 的翻译),专门在质疑说成立 40 年的自由软件基金会是不是已经快不行了,所以我们会用这个标题叫做兴衰发展历程来介绍…

Windows安装HBuilderX

下载 HBuilderX下载地址: 下载地址 解压安装包 HBuilderX,Windows为zip包,解压后才能使用。 首先,选中下载的zip包,点击右键菜单,点击解压到当前文件夹进入解压后的文件夹,找到HBuilderX.exe&#xff0…

OpenFeign整合Sentinel

OpenFeign 整合 Sentinel 实现服务降级 引入依赖 <dependencies><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><!-- nacos服务发现 --><depen…