(Windows)Python 2.7 学习笔记 五十四 分布式进程

2020-11-21 09:23:00

分布式进程

在Thread和Process中,应当优选Process,因为Process更稳定,而且,Process可以分布到多台机器上,而Thread最多只能分布到同一台机器的多个CPU上。

Python的 multiprocessing 模块不但支持多进程,其中 managers 子模块还支持把多进程分布到多台机器上。一个服务进程可以作为调度者,将任务分布到其他多个进程中,依靠网络通信。由于 managers 模块封装很好,不必了解网络通信的细节,就可以很容易地编写分布式多进程程序。

举个例子:如果我们已经有一个通过 Queue 通信的多进程程序在同一台机器上运行,现在,由于处理任务的进程任务繁重,希望把发送任务的进程和处理任务的进程分布到两台机器上。怎么用分布式进程实现?

原有的 Queue 可以继续使用,但是,通过 managers 模块把 Queue 通过网络暴露出去,就可以让其他机器的进程访问 Queue 了。

我们先看服务进程,服务进程负责启动 Queue ,把 Queue 注册到网络上,然后往 Queue 里面写入任务:

原文代码报错,修改参考:[python](windows)分布式进程问题:pickle模块不能序列化lambda函数 – 行走的DT – 博客园

# taskmanager.py
# _*_ coding: gbk _*_

import random, time, Queue
from multiprocessing.managers import BaseManager

# 发送任务的队列:
task_queue = Queue.Queue()
# 接收结果的队列:
result_queue = Queue.Queue()

# 自定义函数re_task_queue
def re_task_queue():
    global task_queue
    return task_queue

# 自定义函数re_result_queue
def re_result_queue():
    global result_queue
    return result_queue

# 从BaseManager继承的QueueManager:
class QueueManager(BaseManager):
    pass

if __name__ == '__main__':

    # 把两个Queue都注册到网络上, callable参数关联了Queue对象:
    QueueManager.register('get_task_queue', callable=re_task_queue)
    QueueManager.register('get_result_queue', callable=re_result_queue)

    # 绑定端口5000, 设置验证码'abc':
    manager = QueueManager(address=('127.0.0.1', 5000), authkey=b'abc')

    # 启动Queue:
    manager.start()

    # 获得通过网络访问的Queue对象:
    task = manager.get_task_queue()
    result = manager.get_result_queue()

    # 放几个任务进去:
    for i in range(10):
        n = random.randint(0, 10000)
        print('Put task %d...' % n)
        task.put(n)

    # 从result队列读取结果:
    print('Try get results...')
    for i in range(10):
        r = result.get(timeout=10)
        print('Result: %s' % r)

    # 关闭:
    manager.shutdown()
    print('master exit.')
C:\Users\Administrator\Desktop>python C:\Users\Administrator\Desktop\taskmanager
.py
Put task 9300...
Put task 8025...
Put task 6562...
Put task 5802...
Put task 3078...
Put task 8827...
Put task 5815...
Put task 9403...
Put task 8885...
Put task 5532...
Try get results...
Traceback (most recent call last):
  File "C:\Users\Administrator\Desktop\taskmanager.py", line 51, in <module>
    r = result.get(timeout=10)
  File "<string>", line 2, in get
  File "C:\Python27\lib\multiprocessing\managers.py", line 774, in _callmethod
    raise convert_to_error(kind, result)
Queue.Empty

C:\Users\Administrator\Desktop>

请注意,当我们在一台机器上写多进程程序时,创建的 Queue 可以直接拿来用,但是,在分布式多进程环境下,添加任务到 Queue 不可以直接对原始的 task_queue 进行操作,那样就绕过了 QueueManager 的封装,必须通过 manager.get_task_queue() 获得的 Queue 接口添加。

然后,在另一台机器上启动任务进程(本机上启动也可以):

# _*_ coding: gbk _*_

import random, time, Queue
from multiprocessing.managers import BaseManager

# 发送任务的队列:
task_queue = Queue.Queue()
# 接收结果的队列:
result_queue = Queue.Queue()

# 从BaseManager继承的QueueManager:
class QueueManager(BaseManager):
    pass

# 把两个Queue都注册到网络上, callable参数关联了Queue对象:
QueueManager.register('get_task_queue', callable=lambda: task_queue)
QueueManager.register('get_result_queue', callable=lambda: result_queue)
# 绑定端口5000, 设置验证码'abc':
manager = QueueManager(address=('', 5000), authkey='abc')
# 启动Queue:
manager.start()
# 获得通过网络访问的Queue对象:
task = manager.get_task_queue()
result = manager.get_result_queue()
# 放几个任务进去:
for i in range(10):
    n = random.randint(0, 10000)
    print('Put task %d...' % n)
    task.put(n)
# 从result队列读取结果:
print('Try get results...')
for i in range(10):
    r = result.get(timeout=10)
    print('Result: %s' % r)
# 关闭:
manager.shutdown()

任务进程要通过网络连接到服务进程,所以要指定服务进程的IP。

现在,可以试试分布式进程的工作效果了。先启动 taskmanager.py 服务进程:

C:\Users\Administrator\Desktop>python C:\Users\Administrator\Desktop\taskmanager
.py
Put task 4144...
Put task 5016...
Put task 4420...
Put task 9179...
Put task 173...
Put task 2579...
Put task 3696...
Put task 509...
Put task 2172...
Put task 4372...
Try get results...

taskmanager进程发送完任务后,开始等待 result 队列的结果。现在启动 taskworker.py 进程:

C:\Users\Administrator\Desktop>python C:\Users\Administrator\Desktop\taskworker.
py
Connect to server 127.0.0.1...
run task 4144 * 4144...
run task 5016 * 5016...
run task 4420 * 4420...
run task 9179 * 9179...
run task 173 * 173...
run task 2579 * 2579...
run task 3696 * 3696...
run task 509 * 509...
run task 2172 * 2172...
run task 4372 * 4372...
worker exit.

C:\Users\Administrator\Desktop>

taskworker进程结束,在taskmanager进程中会继续打印出结果:

Result: 4144 * 4144 = 17172736
Result: 5016 * 5016 = 25160256
Result: 4420 * 4420 = 19536400
Result: 9179 * 9179 = 84254041
Result: 173 * 173 = 29929
Result: 2579 * 2579 = 6651241
Result: 3696 * 3696 = 13660416
Result: 509 * 509 = 259081
Result: 2172 * 2172 = 4717584
Result: 4372 * 4372 = 19114384
master exit.

C:\Users\Administrator\Desktop>

这个简单的Manager/Worker模型有什么用?其实这就是一个简单但真正的分布式计算,把代码稍加改造,启动多个worker,就可以把任务分布到几台甚至几十台机器上,比如把计算 n*n 的代码换成发送邮件,就实现了邮件队列的异步发送。

Queue对象存储在哪?注意到 taskworker.py 中根本没有创建Queue的代码,所以,Queue对象存储在 taskmanager.py 进程中:

而 Queue 之所以能通过网络访问,就是通过 QueueManager 实现的。由于 QueueManager 管理的不止一个 Queue ,所以,要给每个 Queue 的网络调用接口起个名字,比如 get_task_queue 。

authkey 有什么用?这是为了保证两台机器正常通信,不被其他机器恶意干扰。如果 taskworker.py 的 authkey和 taskmanager.py 的 authkey 不一致,肯定连接不上。

Python的分布式进程接口简单,封装良好,适合需要把繁重任务分布到多台机器的环境下。

注意Queue的作用是用来传递任务和接收结果,每个任务的描述数据量要尽量小。比如发送一个处理日志文件的任务,就不要发送几百兆的日志文件本身,而是发送日志文件存放的完整路径,由Worker进程再去共享的磁盘上读取文件。

发表评论

zh_CNChinese