精通Python多进程(Multiprocessing)提升性能:8 个进阶层次解析
多进程编程要求深入理解进程管理、竞争条件和锁机制等系统级概念。尽管这些内容较为复杂,但掌握多进程能够让你充分利用现代多核 CPU,编写高效的 Python 应用。
接下来将通过 8 个渐进层次的实例,逐步深入,帮助轻松理解并有效应用 Python 的多进程技术(Multiprocessing)。
第 1 级:了解如何创建新进程
在 Python 中进行多进程编程时,multiprocessing 模块是我们的好帮手。尽管不同操作系统可能有不同的进程创建和管理方式,multiprocessing 模块已经封装了常见的操作,因此在大多数情况下,我们只需使用其接口,而不必关心操作系统底层的机制。
例如,以下代码片段通过 multiprocessing 模块中的 Process 对象,从主进程派生出一个名为 p 的新进程:
os.getpid() 方法用于获取进程的 ID。如上例所示,代码中执行了两个进程。在 Python 多进程中,start() 和 join() 是常用的方法:
- start() 用于启动进程,每个进程只能调用一次。
- join() 用于阻塞调用进程(示例中的主进程),直到指定进程执行完毕。否则,调用进程可能在子进程之前结束,特别是在短时间执行的程序中。
第 2 级:使用多个进程并行执行多个任务
如上图,通过创建四个进程并并行运行该print_square()函数,程序的总执行时间可以缩短至 1 秒。
第3级:使用池简化流程管理
Pool类提供multiprocessing了一种更方便的方式来管理多个进程并进行并行执行。
上面的代码使用了 Pool 实现了相同的功能,我们通过它避免了许多 for 循环。代码中通过上下文管理器(with 语句)创建了一个多进程池。如果直接创建池,我们需要记得手动关闭它。
第 4 级:使用 Pipe 实现一对一的进程间通信
如果两个进程需要交换消息,Python 的 multiprocessing 模块中的 Pipe 是合适的工具。
它允许两个进程通过双向通信通道直接交换数据。
上面的代码演示了一个 Pipe 对象连接了两个端点:父端连接和子端连接。这两个端点都可以:
- 使用 send() 方法发送数据。
- 使用 recv() 方法接收数据。
通过 Pipe 发送的数据会立即在另一端可用。借助 Pipe,我们的两个进程可以轻松地进行通信。Pipe 的关键特点:
- 简单且轻量级:与其他进程间通信(IPC)机制相比,Pipe 更加简单,适合用于两个进程之间的通信。
- 全双工:数据可以同时在两个方向流动。
- 自动序列化:Pipe 在发送消息时会自动序列化 Python 对象(使用 pickle)。
数据从发送进程的内存复制到管道的缓冲区,然后再传递到接收进程的内存。因此,即使两个进程不直接共享内存,进程间通信(IPC)仍然可以进行。
- 分离的缓冲区:Pipe 的每个端点都有自己的缓冲区。这些缓冲区是操作系统的进程间通信(IPC)机制的一部分,具体实现可能依赖于平台,如管道、套接字或类似的结构。
- 序列化:当一个进程在其端点调用 send(data) 时,数据会被序列化(使用 pickle 或类似的序列化机制转换为字节流)。该字节流会写入发送端的缓冲区。
- 传输:序列化后的数据通过管道的底层机制(例如,系统级管道或套接字)传递到接收端的缓冲区。
- 反序列化:当另一个进程调用 recv() 时,数据会从其端点的缓冲区读取。数据随后会被反序列化回 Python 对象。
第 5 级:使用 Multiprocessing Queue 实现进程间数据共享
Pipe 仅限于两个进程之间的通信(即管道的两个端点)。对于更复杂的场景,Python multiprocessing 模块中的 Queue 是一个聪明的选择,它是一个进程安全的 FIFO(先进先出)数据结构。Queue 可以同时处理多个生产者(将数据放入队列的进程)和多个消费者(从队列中获取数据的进程)。
上面的代码实现了一个多进程队列,一个进程将数据写入队列,另一个进程从队列中读取数据。多进程队列有两个关键操作:
- put(data):将数据添加到队列中。
- get():从队列中获取数据。
multiprocessing.Queue 与普通(基于线程的)队列 queue.Queue 模块的有区别的,queue.Queue 仅限于在单个进程内的线程之间使用,不能用于进程间通信。如果在多进程上下文中使用 queue.Queue,数据将无法被其他进程访问,因为进程之间不共享内存。每个进程都有自己的内存空间,导致 queue.Queue 无效。
第 6 级:使用 Multiprocessing 列表实现栈式进程间数据共享
如上面的代码所示,Manager.list 提供了一种方式,让进程共享类似栈的对象。它也并不是直接在进程间共享内存。
第 7 级:了解如何在进程间共享内存
默认情况下,进程之间不共享内存。每个进程都在自己的内存空间中运行,以实现隔离和安全性。这是多进程编程中一个非常核心的概念。
然而,复制大量数据的开销并不总是能接受。Python 提供了显式机制来在需要时在进程间共享内存。以下是一些例子:
- multiprocessing.shared_memory(Python 3.8+)
- multiprocessing.Value
- multiprocessing.Array
但在使用这些机制时,我们需要非常小心,因为共享内存可能会引发竞争条件问题。例如,以下程序使用 multiprocessing.Value 来共享一个整数变量,在四个进程中共享内存:
从 Python 3.2 起,multiprocessing.Value 内部就采用了同步机制来保证对共享数据的线程安全。即使没有手动加锁,Python 会确保操作是原子性的,避免了竞争条件的发生。
第 8 级:使用锁避免共享内存多进程中的竞争条件
multiprocessing 模块提供了 Lock 对象来帮助我们避免竞争条件。当多个进程访问共享内存中的数据时,如果没有适当的同步机制,可能会发生竞争条件。为了避免这种情况,可以使用 Lock 来确保一次只有一个进程能够访问共享资源,从而避免数据的不一致。
Lock 是一种基本的同步原语,通常与共享数据一起使用。它通过阻止其他进程在一个进程访问共享资源时进入临界区(即访问共享资源的代码段)来实现同步。
在这个示例中,Lock 用于确保每次只有一个进程能够访问 shared_counter。通过 with lock: 语句,我们确保了每个进程在修改共享变量之前获取锁,并在完成后释放锁,避免了多个进程同时修改共享数据导致的竞争条件。
Python 中的多进程编程是一项高级技术,能够显著提升应用程序的性能,特别是在处理 CPU 密集型任务时。这 8 个层次的解释和示例展示了多进程编程的基本概念,帮助你打下扎实的基础,顺利踏上多进程开发的旅程。