Очереди многопроцессорная обработка в Python
Я пытаюсь использовать очередь с многопроцессорной библиотекой в Python. После выполнения кода ниже (операторы печати работают), но процессы не завершаются после вызова join в очереди и все еще живы. Как завершить остальные процессы?
спасибо!
def MultiprocessTest(self):
print "Starting multiprocess."
print "Number of CPUs",multiprocessing.cpu_count()
num_procs = 4
def do_work(message):
print "work",message ,"completed"
def worker():
while True:
item = q.get()
do_work(item)
q.task_done()
q = multiprocessing.JoinableQueue()
for i in range(num_procs):
p = multiprocessing.Process(target=worker)
p.daemon = True
p.start()
source = ['hi','there','how','are','you','doing']
for item in source:
q.put(item)
print "q close"
q.join()
#q.close()
print "Finished everything...."
print "num active children:",multiprocessing.active_children()
5 ответов
попробуйте это:
import multiprocessing
num_procs = 4
def do_work(message):
print "work",message ,"completed"
def worker():
for item in iter( q.get, None ):
do_work(item)
q.task_done()
q.task_done()
q = multiprocessing.JoinableQueue()
procs = []
for i in range(num_procs):
procs.append( multiprocessing.Process(target=worker) )
procs[-1].daemon = True
procs[-1].start()
source = ['hi','there','how','are','you','doing']
for item in source:
q.put(item)
q.join()
for p in procs:
q.put( None )
q.join()
for p in procs:
p.join()
print "Finished everything...."
print "num active children:", multiprocessing.active_children()
вашим работникам нужен Часовой для завершения, или они просто будут сидеть на блокирующих чтениях. Обратите внимание, что использование сна на Q вместо соединения на P позволяет отображать информацию о состоянии и т. д.
Мой предпочтительный шаблон:
def worker(q,nameStr):
print 'Worker %s started' %nameStr
while True:
item = q.get()
if item is None: # detect sentinel
break
print '%s processed %s' % (nameStr,item) # do something useful
q.task_done()
print 'Worker %s Finished' % nameStr
q.task_done()
q = multiprocessing.JoinableQueue()
procs = []
for i in range(num_procs):
nameStr = 'Worker_'+str(i)
p = multiprocessing.Process(target=worker, args=(q,nameStr))
p.daemon = True
p.start()
procs.append(p)
source = ['hi','there','how','are','you','doing']
for item in source:
q.put(item)
for i in range(num_procs):
q.put(None) # send termination sentinel, one for each process
while not q.empty(): # wait for processing to finish
sleep(1) # manage timeouts and status updates etc.
вы должны очистить очередь перед присоединением к процессу, но q.empty() ненадежен.
лучший способ очистить очередь-подсчитать количество успешных gets или loop, пока вы не получите значение sentinel, как сокет с надежной сетью.
приведенный ниже код может быть не очень актуальным, но я публикую его для ваших комментариев / отзывов, чтобы мы могли учиться вместе. Спасибо!
import multiprocessing
def boss(q,nameStr):
source = range(1024)
for item in source:
q.put(nameStr+' '+str(item))
q.put(None) # send termination sentinel, one for each process
def worker(q,nameStr):
while True:
item = q.get()
if item is None: # detect sentinel
break
print '%s processed %s' % (nameStr,item) # do something useful
q = multiprocessing.Queue()
procs = []
num_procs = 4
for i in range(num_procs):
nameStr = 'ID_'+str(i)
p = multiprocessing.Process(target=worker, args=(q,nameStr))
procs.append(p)
p = multiprocessing.Process(target=boss, args=(q,nameStr))
procs.append(p)
for j in procs:
j.start()
for j in procs:
j.join()
здесь sentinel-бесплатно метод для относительно простого случая, когда вы ставите ряд задач на JoinableQueue
, затем запустите рабочие процессы, которые потребляют задачи и выходят, как только они прочитают очередь "сухой". Фокус в том, чтобы использовать JoinableQueue.get_nowait()
вместо get()
. get_nowait()
, как следует из названия, пытается получить значение из очереди неблокирующим образом, и если ничего не нужно получить, то queue.Empty
исключение. Работник обрабатывает это исключение выходящий.
рудиментарный код для иллюстрации принципа:
import multiprocessing as mp
from queue import Empty
def worker(q):
while True:
try:
work = q.get_nowait()
# ... do something with `work`
q.task_done()
except Empty:
break # completely done
# main
worknum = 4
jq = mp.JoinableQueue()
# fill up the task queue
# let's assume `tasks` contains some sort of data
# that your workers know how to process
for task in tasks:
jq.put(task)
procs = [ mp.Process(target=worker, args=(jq,)) for _ in range(worknum) ]
for p in procs:
p.start()
for p in procs:
p.join()
преимущество в том, что вам не нужно ставить "ядовитые таблетки" в очередь, поэтому код немного короче.
важно : в более сложных ситуациях, когда производители и потребители используют одну и ту же очередь "чередующимся" образом, и работникам, возможно, придется ждать новых задач, следует использовать подход "ядовитые таблетки". Мое предложение выше это для простых случаев, когда рабочие "знают", что если очередь задач пуста, то больше нет смысла болтаться.