讓CPU核心物盡其用!本文介紹了僅需3行代碼,將Python數據處理速度提升2~6倍的簡單方法。這對大規模數據處理非常有用,一起來看。
Python是所有機器學習的首選編程語言。它易于使用,并擁有許多很棒的庫,可以輕松地處理數據。但是當我們需要處理大量數據時,事情就變得棘手了......
“大數據”這個詞通常指的是數據集,一個數據集里的數據點如果沒有數百萬個,也有數十萬。在這樣的規模上,每個小的計算加起來,而且我們需要在編碼過程的每個步驟保持效率。在考慮機器學習系統的效率時,經常被忽視的一個關鍵步驟就是預處理階段,我們必須對所有數據點進行某種預處理操作。
默認情況下,Python程序使用單個CPU作為單個進程執行。大多數用于機器學習的計算機至少有2個CPU核心。這意味著,對于2個CPU內核的示例,在運行預處理時,50%或更多的計算機處理能力在默認情況下不會做任何事情!當你使用4核( Intel i5)或6核( Intel i7)時,就更浪費了。
但幸運的是,內置的Python庫中有一些隱藏的功能,可以讓我們充分利用所有CPU內核!感謝Python的concurrent.futures模塊,只需3行代碼就可以將一個普通程序轉換為一個可以跨CPU核心并行處理數據的程序。
標準方法
讓我們舉一個簡單的例子,我們在一個文件夾中有一個圖像數據集; 或者我們甚至有成千上萬的圖像!為了節省處理時間,我們在這里使用1000張圖像。我們希望在將所有圖像在傳輸到深度神經網絡之前將其大小調整為600x600。下面就是你經常在GitHub上看到的一些非常標準的Python代碼。
這個程序遵循在數據處理腳本中經常看到的簡單模式:
首先是要處理的文件(或其他數據)列表;
你可以使用for循環逐個處理每個數據片段,然后在每個循環迭代上運行預處理
讓我們在一個包含1000個jpeg文件的文件夾上測試這個程序,看看運行需要多長時間:
在我的具有6個CPU核心的i7-8700k上,這個程序的運行時間是7.9864秒!對于這樣的高端CPU來說,似乎有點慢。讓我們看看我們可以做些什么來加快速度。
快速方式
為了理解我們希望Python如何并行處理事物,直觀地思考并行處理本身是有幫助的。假設我們必須執行相同的任務,例如將釘子釘入一塊木頭,我們的桶中有1000個釘子。如果釘每個釘子需要1秒鐘,那么1個人的話需要花1000秒完成工作。但是如果有4個人,我們會將整桶釘子平均分成4堆,然后每個人處理自己的一堆釘子。這樣,只需250秒即可完成任務!
在這個包含1000張圖像的任務中,也可以這樣處理:
將jpg文件列表分為4個較小的組。
運行Python解釋器的4個獨立實例。
讓每個Python實例處理4個較小數據組中的一個。
結合4個過程的結果,得到最終的結果列表。
這里最重要的部分是Python為我們處理了所有艱苦的工作。我們只是告訴它我們想要運行哪個函數,以及使用多少Python實例,然后它完成了所有其他操作!我們只需修改3行代碼。
上面的代碼中的:
你有多少CPU核心就啟動多少Python進程,在我的例子中是6個。實際的處理代碼是這樣的:
executor.map()將你想要運行的函數和一個列表作為輸入,列表中的每個元素都是函數的單個輸入。由于我們有6個核心,我們將同時處理列表中的6個項!
再次運行程序看看:
運行時間是1.14265秒,幾乎加速了6倍!
注意:產生更多Python進程并在它們之間移動數據時,會產生一些開銷,因此不會總是得到這么大的速度提升。 但總的來說,加速相當顯著。
是否總能大幅加速?
當你有要處理的數據列表并且要對每個數據點執行類似的計算時,使用Python并行池是一個很好的解決方案。但是,它并不總是完美的。并行池處理的數據不會以任何可預測的順序處理。如果你需要處理的結果按特定順序排列,那么這種方法可能不適合。
你處理的數據還必須是Python知道如何“pickle”的類型。幸運的是,這些類型很常見。以下來自Python官方文檔:
None, True, 及 False
整數,浮點數,復數
字符串,字節,字節數組
僅包含可選對象的元組,列表,集合和詞典
在模塊的頂層定義的函數(使用def,而不是lambda)
在模塊頂層定義的內置函數
在模塊頂層定義的類
這些類的實例,__dict__或調用__getstate __()的結果是可選擇的
-
數據處理
+關注
關注
0文章
606瀏覽量
28597 -
機器學習
+關注
關注
66文章
8425瀏覽量
132775 -
python
+關注
關注
56文章
4800瀏覽量
84820
原文標題:3行代碼,Python數據預處理提速6倍!
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論