python进程池调用实例方法_Python 多进程并发操作中进程池Pool的实例
在利用Python進(jìn)行系統(tǒng)管理的時(shí)候,特別是同時(shí)操作多個(gè)文件目錄,或者遠(yuǎn)程控制多臺(tái)主機(jī),并行操作可以節(jié)約大量的時(shí)間。當(dāng)被操作對(duì)象數(shù)目不大時(shí),可以直接利用multiprocessing中的Process動(dòng)態(tài)成生多個(gè)進(jìn)程,10幾個(gè)還好,但如果是上百個(gè),上千個(gè)目標(biāo),手動(dòng)的去限制進(jìn)程數(shù)量卻又太過繁瑣,這時(shí)候進(jìn)程池Pool發(fā)揮作用的時(shí)候就到了。
Pool可以提供指定數(shù)量的進(jìn)程,供用戶調(diào)用,當(dāng)有新的請(qǐng)求提交到pool中時(shí),如果池還沒有滿,那么就會(huì)創(chuàng)建一個(gè)新的進(jìn)程用來執(zhí)行該請(qǐng)求;但如果池中的進(jìn)程數(shù)已經(jīng)達(dá)到規(guī)定最大值,那么該請(qǐng)求就會(huì)等待,直到池中有進(jìn)程結(jié)束,才會(huì)創(chuàng)建新的進(jìn)程來它。這里有一個(gè)簡單的例子:
#!/usr/bin/env python
#coding=utf-8
"""
Author: Squall
Last modified: 2011-10-18 16:50
Filename: pool.py
Description: a simple sample for pool class
"""
from multiprocessing import Pool
from time import sleep
def f(x):
for i in range(10):
print '%s --- %s ' % (i, x)
sleep(1)
def main():
pool = Pool(processes=3) # set the processes max number 3
for i in range(11,20):
result = pool.apply_async(f, (i,))
pool.close()
pool.join()
if result.successful():
print 'successful'
if __name__ == "__main__":
main()
先創(chuàng)建容量為3的進(jìn)程池,然后將f(i)依次傳遞給它,運(yùn)行腳本后利用ps aux | grep pool.py查看進(jìn)程情況,會(huì)發(fā)現(xiàn)最多只會(huì)有三個(gè)進(jìn)程執(zhí)行。pool.apply_async()用來向進(jìn)程池提交目標(biāo)請(qǐng)求,pool.join()是用來等待進(jìn)程池中的worker進(jìn)程執(zhí)行完畢,防止主進(jìn)程在worker進(jìn)程結(jié)束前結(jié)束。但必pool.join()必須使用在pool.close()或者pool.terminate()之后。其中close()跟terminate()的區(qū)別在于close()會(huì)等待池中的worker進(jìn)程執(zhí)行結(jié)束再關(guān)閉pool,而terminate()則是直接關(guān)閉。result.successful()表示整個(gè)調(diào)用執(zhí)行的狀態(tài),如果還有worker沒有執(zhí)行完,則會(huì)拋出AssertionError異常。
利用multiprocessing下的Pool可以很方便的同時(shí)自動(dòng)處理幾百或者上千個(gè)并行操作,腳本的復(fù)雜性也大大降低。
——————————————————————————————————
Python多進(jìn)程并發(fā)(multiprocessing)
由于Python設(shè)計(jì)的限制(我說的是咱們常用的CPython)。最多只能用滿1個(gè)CPU核心。
Python提供了非常好用的多進(jìn)程包multiprocessing,你只需要定義一個(gè)函數(shù),Python會(huì)替你完成其他所有事情。借助這個(gè)包,可以輕松完成從單進(jìn)程到并發(fā)執(zhí)行的轉(zhuǎn)換。
1、新建單一進(jìn)程
如果我們新建少量進(jìn)程,可以如下:
import multiprocessing
import time
def func(msg):
for i in xrange(3):
print msg
time.sleep(1)
if __name__ == "__main__":
p = multiprocessing.Process(target=func, args=("hello", ))
p.start()
p.join()
print "Sub-process done."
2、使用進(jìn)程池
是的,你沒有看錯(cuò),不是線程池。它可以讓你跑滿多核CPU,而且使用方法非常簡單。
注意要用apply_async,如果落下async,就變成阻塞版本了。
processes=4是最多并發(fā)進(jìn)程數(shù)量。
import
multiprocessing
import
time
def
func(msg):
for
i
in
xrange(3):
msg
time.sleep(1)
if
__name__
==
"__main__":
pool
=
multiprocessing.Pool(processes=4)
for
i
in
xrange(10):
msg
=
"hello
%d"
%(i)
pool.apply_async(func,
(msg,
))
pool.close()
pool.join()
"Sub-process(es)
done."
3、使用Pool,并需要關(guān)注結(jié)果
更多的時(shí)候,我們不僅需要多進(jìn)程執(zhí)行,還需要關(guān)注每個(gè)進(jìn)程的執(zhí)行結(jié)果,如下:
import multiprocessing
import time
def func(msg):
for i in xrange(3):
print msg
time.sleep(1)
return "done " + msg
if __name__ == "__main__":
pool = multiprocessing.Pool(processes=4)
result = []
for i in xrange(10):
msg = "hello %d" %(i)
result.append(pool.apply_async(func, (msg, )))
pool.close()
pool.join()
for res in result:
print res.get()
print "Sub-process(es) done."
2014.12.25更新
根據(jù)網(wǎng)友評(píng)論中的反饋,在Windows下運(yùn)行有可能崩潰(開啟了一大堆新窗口、進(jìn)程),可以通過如下調(diào)用來解決:
multiprocessing.freeze_support()
簡易worker multiprocessing.Pool
多任務(wù)模型設(shè)計(jì)是一個(gè)比較復(fù)雜的邏輯,但是python對(duì)于多任務(wù)的處理卻有種種方便的類庫,不需要過多的糾結(jié)進(jìn)程/線程間的操作細(xì)節(jié)。比如multiprocessing.Pool就是其中之一。
官方給的范例也很簡單。
from multiprocessing import Pool
def f(x):
return x*x
if __name__ == '__main__':
pool = Pool(processes=4) # start 4 worker processes
result = pool.apply_async(f, [10]) # evaluate "f(10)" asynchronously
print result.get(timeout=1) # prints "100" unless your computer is *very* slow
print pool.map(f, range(10)) # prints "[0, 1, 4,..., 81]"
并未做太多的詳細(xì)解釋。正好我手頭有一段代碼,需要請(qǐng)求幾百個(gè)url,解析html頁面獲取一些信息,單線程for循環(huán)效率極低,因此看到了這個(gè)模塊,想用這個(gè)實(shí)現(xiàn)多任務(wù)分析,參考代碼如下:
from multiprocessing import Pool
def analyse_url(url):
#do something with this url
return analysis_result
if __name__ == '__main__':
pool = Pool(processes=10)
result = pool.map(analyse_url, url_list)
確實(shí)比以前單線程for循環(huán)url_list列表,一個(gè)個(gè)請(qǐng)求analyse_url要快得多,但是帶來的問題就是一旦pool.map沒執(zhí)行完就ctrl-c中斷程序,程序就會(huì)異常,永遠(yuǎn)無法退出,參考stackoverflow的這個(gè)帖子,修改為以下代碼:
#result = pool.map(analyse_url, url_list)
result = pool.map_async(analyse_url, url_list).get(120)
至此問題完美解決。
以上這篇Python 多進(jìn)程并發(fā)操作中進(jìn)程池Pool的實(shí)例就是小編分享給大家的全部內(nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持我們。
本文標(biāo)題: Python 多進(jìn)程并發(fā)操作中進(jìn)程池Pool的實(shí)例
本文地址: http://www.cppcns.com/jiaoben/python/209637.html
總結(jié)
以上是生活随笔為你收集整理的python进程池调用实例方法_Python 多进程并发操作中进程池Pool的实例的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: seq2seq模型_Pytorch学习记
- 下一篇: websocket python爬虫_p