如何通过Python多进程池获取剩余待完成的“工作”量?

11

到目前为止,每当我需要使用multiprocessing时,我都通过手动创建“进程池”并与所有子进程共享工作队列的方式来实现。

例如:

from multiprocessing import Process, Queue


class MyClass:

    def __init__(self, num_processes):
        self._log         = logging.getLogger()
        self.process_list = []
        self.work_queue   = Queue()
        for i in range(num_processes):
            p_name = 'CPU_%02d' % (i+1)
            self._log.info('Initializing process %s', p_name)
            p = Process(target = do_stuff,
                        args   = (self.work_queue, 'arg1'),
                        name   = p_name)

这样我就可以向队列中添加内容,由子进程消费。然后我可以通过检查 Queue.qsize() 来监视处理的进度:

    while True:
        qsize = self.work_queue.qsize()
        if qsize == 0:
            self._log.info('Processing finished')
            break
        else:
            self._log.info('%d simulations still need to be calculated', qsize)

现在我想到可以使用multiprocessing.Pool来简化这段代码。

我不知道如何监控还剩下多少工作没有完成。

看下面的例子:

from multiprocessing import Pool


class MyClass:

    def __init__(self, num_processes):
        self.process_pool = Pool(num_processes)
        # ...
        result_list = []
        for i in range(1000):            
            result = self.process_pool.apply_async(do_stuff, ('arg1',))
            result_list.append(result)
        # ---> here: how do I monitor the Pool's processing progress?
        # ...?

有什么想法吗?

4个回答

17

使用Manager队列。这是一个在worker进程之间共享的队列。如果您使用普通队列,则会被每个worker pickled和unpickled,从而复制,因此不能被每个worker更新。

然后,您需要让worker向队列中添加内容并监视队列的状态,同时worker正在工作。您需要使用map_async来完成此操作,因为它允许您在整个结果准备就绪时查看它,从而使您能够打破监视循环。

例如:

import time
from multiprocessing import Pool, Manager


def play_function(args):
    """Mock function, that takes a single argument consisting
    of (input, queue). Alternately, you could use another function
    as a wrapper.
    """
    i, q = args
    time.sleep(0.1)  # mock work
    q.put(i)
    return i

p = Pool()
m = Manager()
q = m.Queue()

inputs = range(20)
args = [(i, q) for i in inputs]
result = p.map_async(play_function, args)

# monitor loop
while True:
    if result.ready():
        break
    else:
        size = q.qsize()
        print(size)
        time.sleep(0.1)

outputs = result.get()

3
我为async_call提出了以下解决方案。
这只是一个微不足道的玩具脚本示例,但我认为它应该可以广泛应用。
基本上,在无限循环中轮询结果对象的准备值,使用列表生成器进行求和,以获取您已分派的池任务中有多少个剩余。
一旦没有剩余的任务,就break并join()& close()。
根据需要在循环中添加sleep。
与上述解决方案原理相同,但无需队列。如果您还跟踪了最初发送给Pool的任务数量,您可以计算完成百分比等等...
import multiprocessing
import os
import time
from random import randrange


def worker():
    print os.getpid()

    #simulate work
    time.sleep(randrange(5))

if __name__ == '__main__':

    pool = multiprocessing.Pool(processes=8)
    result_objs = []

    print "Begin dispatching work"

    task_count = 10
    for x in range(task_count):
        result_objs.append(pool.apply_async(func=worker))

    print "Done dispatching work"

    while True:
        incomplete_count = sum(1 for x in result_objs if not x.ready())

        if incomplete_count == 0:
            print "All done"
            break

        print str(incomplete_count) + " Tasks Remaining"
        print str(float(task_count - incomplete_count) / task_count * 100) + "% Complete"
        time.sleep(.25)

    pool.close()
    pool.join()

2

我遇到了同样的问题,并针对MapResult对象提出了一个相对简单的解决方案(尽管使用了内部MapResult数据)

pool = Pool(POOL_SIZE)

result = pool.map_async(get_stuff, todo)
while not result.ready():
    remaining = result._number_left * result._chunksize
    sys.stderr.write('\r\033[2KRemaining: %d' % remaining)
    sys.stderr.flush()
    sleep(.1)

print >> sys.stderr, '\r\033[2KRemaining: 0'

请注意,由于处理项的数量不同,剩余值并非总是精确的,因为块大小通常会向上舍入。
您可以通过使用 pool.map_async(get_stuff, todo, chunksize=1) 来避免这种情况。

0

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接