一、Python編程中,使用多進程完成多任務的方法
Python提供了multiprocessing模塊,可以用于在單個計算機上創建多個進程,從而實現多任務處理。下面是一個簡單的例子,展示了如何使用multiprocessing模塊創建多進程來完成多任務。
代碼:
import multiprocessingimport time# 跳舞任務def dance(): for i in range(5): print("跳舞中...") time.sleep(0.2)# 唱歌任務def sing(): for i in range(5): print("唱歌中...") time.sleep(0.2)if __name__ == '__main__': # 創建跳舞的子進程 # group: 表示進程組,目前只能使用None # target: 表示執行的目標任務名(函數名、方法名) # name: 進程名稱, 默認是Process-1, ..... dance_process = multiprocessing.Process(target=dance, name="myprocess1") sing_process = multiprocessing.Process(target=sing) # 啟動子進程執行對應的任務 dance_process.start() sing_process.start()
執行結果:
唱歌中...跳舞中...唱歌中...跳舞中...唱歌中...跳舞中...唱歌中...跳舞中...唱歌中...跳舞中...
二、進程有哪些注意點
1、進程之間不共享全局變量
代碼:
import multiprocessingimport time# 定義全局變量g_list = list()# 添加數據的任務def add_data(): for i in range(5): g_list.append(i) print("add:", i) time.sleep(0.2) # 代碼執行到此,說明數據添加完成 print("add_data:", g_list)def read_data(): print("read_data", g_list)if __name__ == '__main__': # 創建添加數據的子進程 add_data_process = multiprocessing.Process(target=add_data) # 創建讀取數據的子進程 read_data_process = multiprocessing.Process(target=read_data) # 啟動子進程執行對應的任務 add_data_process.start() # 主進程等待添加數據的子進程執行完成以后程序再繼續往下執行,讀取數據 add_data_process.join() read_data_process.start() print("main:", g_list) # 總結: 多進程之間不共享全局變量
執行結果:
add: 0
add: 1
add: 2
add: 3
add: 4
add_data: [0, 1, 2, 3, 4]
main: []
read_data []
創建子進程會對主進程資源進行拷貝,也就是說子進程是主進程的一個副本,好比是一對雙胞胎,之所以進程之間不共享全局變量,是因為操作的不是同一個進程里面的全局變量,只不過不同進程里面的全局變量名字相同而已。
2、主進程會等待所有的子進程執行結束再結束
假如我們現在創建一個子進程,這個子進程執行完大概需要2秒鐘,現在讓主進程執行0.5秒鐘就退出程序,查看一下執行結果,示例代碼如下:
import multiprocessingimport time# 定義進程所需要執行的任務def task(): for i in range(10): print("任務執行中...") time.sleep(0.2)if __name__ == '__main__': # 創建子進程 sub_process = multiprocessing.Process(target=task) sub_process.start() # 主進程延時0.5秒鐘 time.sleep(0.5) print("over") exit() # 總結:主進程會等待所有的子進程執行完成以后程序再退出
執行結果:
任務執行中...任務執行中...任務執行中...over任務執行中...任務執行中...任務執行中...任務執行中...任務執行中...任務執行中...任務執行中...
說明:通過上面代碼的執行結果,我們可以得知:主進程會等待所有的子進程執行結束再結束。
假如我們就讓主進程執行0.5秒鐘,子進程就銷毀不再執行,那怎么辦呢?我們可以設置守護主進程或者在主進程退出之前讓子進程銷毀:
守護主進程:守護主進程就是主進程退出子進程銷毀不再執行子進程銷毀:子進程執行結束保證主進程正常退出的示例代碼:
import multiprocessingimport time# 定義進程所需要執行的任務def task(): for i in range(10): print("任務執行中...") time.sleep(0.2)if __name__ == '__main__': # 創建子進程 sub_process = multiprocessing.Process(target=task) # 設置守護主進程,主進程退出子進程直接銷毀,子進程的生命周期依賴與主進程 # sub_process.daemon = True sub_process.start() time.sleep(0.5) print("over") # 讓子進程銷毀 sub_process.terminate() exit() # 總結:主進程會等待所有的子進程執行完成以后程序再退出 # 如果想要主進程退出子進程銷毀,可以設置守護主進程或者在主進程退出之前讓子進程銷毀
執行結果:
任務執行中...任務執行中...任務執行中...over
三、Python多線程的通信
進程是系統獨立調度核分配系統資源(CPU、內存)的基本單位,進程之間是相互獨立的,每啟動一個新的進程相當于把數據進行了一次克隆,子進程里的數據修改無法影響到主進程中的數據,不同子進程之間的數據也不能共享,這是多進程在使用中與多線程最明顯的區別。但是難道Python多進程中間難道就是孤立的嗎?當然不是,python也提供了多種方法實現了多進程中間的通信和數據共享(可以修改一份數據)。
1、進程對列Queue
Queue在多線程中也說到過,在生成者消費者模式中使用,是線程安全的,是生產者和消費者中間的數據管道,那在python多進程中,它其實就是進程之間的數據管道,實現進程通信。
from multiprocessing import Process,Queuedef fun1(q,i): print('子進程%s 開始put數據' %i) q.put('我是%s 通過Queue通信' %i)if __name__ == '__main__': q = Queue() process_list = [] for i in range(3): p = Process(target=fun1,args=(q,i,)) #注意args里面要把q對象傳給我們要執行的方法,這樣子進程才能和主進程用Queue來通信 p.start() process_list.append(p) for i in process_list: p.join() print('主進程獲取Queue數據') print(q.get()) print(q.get()) print(q.get()) print('結束測試')
結果:
子進程0 開始put數據子進程1 開始put數據子進程2 開始put數據主進程獲取Queue數據我是0 通過Queue通信我是1 通過Queue通信我是2 通過Queue通信結束測試Process finished with exit code 0
上面的代碼結果可以看到我們主進程中可以通過Queue獲取子進程中put的數據,實現進程間的通信。
2、管道Pipe
管道Pipe和Queue的作用大致差不多,也是實現進程間的通信。
from multiprocessing import Process, Pipedef fun1(conn): print('子進程發送消息:') conn.send('你好主進程') print('子進程接受消息:') print(conn.recv()) conn.close()if __name__ == '__main__': conn1, conn2 = Pipe() #關鍵點,pipe實例化生成一個雙向管 p = Process(target=fun1, args=(conn2,)) #conn2傳給子進程 p.start() print('主進程接受消息:') print(conn1.recv()) print('主進程發送消息:') conn1.send("你好子進程") p.join() print('結束測試')
結果:
主進程接受消息:子進程發送消息:子進程接受消息:你好主進程主進程發送消息:你好子進程結束測試Process finished with exit code 0
上面可以看到主進程和子進程可以相互發送消息。
3、Managers
Queue和Pipe只是實現了數據交互,并沒實現數據共享,即一個進程去更改另一個進程的數據。那么就要用到Managers。
from multiprocessing import Process, Managerdef fun1(dic,lis,index): dic[index] = 'a' dic['2'] = 'b' lis.append(index) #[0,1,2,3,4,0,1,2,3,4,5,6,7,8,9] #print(l)if __name__ == '__main__': with Manager() as manager: dic = manager.dict()#注意字典的聲明方式,不能直接通過{}來定義 l = manager.list(range(5))#[0,1,2,3,4] process_list = [] for i in range(10): p = Process(target=fun1, args=(dic,l,i)) p.start() process_list.append(p) for res in process_list: res.join() print(dic) print(l)
結果:
{0: 'a', '2': 'b', 3: 'a', 1: 'a', 2: 'a', 4: 'a', 5: 'a', 7: 'a', 6: 'a', 8: 'a', 9: 'a'}[0, 1, 2, 3, 4, 0, 3, 1, 2, 4, 5, 7, 6, 8, 9]
可以看到主進程定義了一個字典和一個列表,在子進程中,可以添加和修改字典的內容,在列表中插入新的數據,實現進程間的數據共享,即可以共同修改同一份數據。
延伸閱讀1:Python協程簡介
協程,又稱微線程,纖程,英文名Coroutine。協程的作用是在執行函數A時可以隨時中斷去執行函數B,然后中斷函數B繼續執行函數A(可以自由切換)。但這一過程并不是函數調用,這一整個過程看似像多線程,然而協程只有一個線程執行。