色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

用Python玩個“小小的”大數據

馬哥Linux運維 ? 來源:未知 ? 作者:李倩 ? 2018-06-27 15:11 ? 次閱讀

Google Ngram viewer是一個有趣和有用的工具,它使用谷歌從書本中掃描來的海量的數據寶藏,繪制出單詞使用量隨時間的變化。舉個例子,單詞Python(區分大小寫):

這幅圖來自:books.google.com/ngrams/grap…,描繪了單詞 'Python' 的使用量隨時間的變化。

它是由谷歌的n-gram數據集驅動的,根據書本印刷的每一個年份,記錄了一個特定單詞或詞組在谷歌圖書的使用量。然而這并不完整(它并沒有包含每一本已經發布的書?。?,數據集中有成千上百萬的書,時間上涵蓋了從 16 世紀到 2008 年。數據集可以免費從這里下載。

我決定使用 Python 和我新的數據加載庫PyTubes來看看重新生成上面的圖有多容易。

挑戰

1-gram 的數據集在硬盤上可以展開成為 27 Gb 的數據,這在讀入 python 時是一個很大的數據量級。Python可以輕易地一次性地處理千兆的數據,但是當數據是損壞的和已加工的,速度就會變慢而且內存效率也會變低。

總的來說,這 14 億條數據(1,430,727,243)分散在 38 個源文件中,一共有 2 千 4 百萬個(24,359,460)單詞(和詞性標注,見下方),計算自 1505 年至 2008 年。

當處理 10 億行數據時,速度會很快變慢。并且原生 Python 并沒有處理這方面數據的優化。幸運的是,numpy真的很擅長處理大體量數據。 使用一些簡單的技巧,我們可以使用 numpy 讓這個分析變得可行。

在 python/numpy 中處理字符串很復雜。字符串在 python 中的內存開銷是很顯著的,并且 numpy 只能夠處理長度已知而且固定的字符串?;谶@種情況,大多數的單詞有不同的長度,因此這并不理想。

Loading the data

下面所有的代碼/例子都是運行在8 GB 內存的 2016 年的 Macbook Pro。 如果硬件或云實例有更好的 ram 配置,表現會更好。

1-gram 的數據是以 tab 鍵分割的形式儲存在文件中,看起來如下:

Python158742

Python162111

Python165122

Python165911

每一條數據包含下面幾個字段:

1.Word

2.Year of Publication

3.Total number of times the word was seen

4.Total number of books containing the word

為了按照要求生成圖表,我們只需要知道這些信息,也就是:

1. 這個單詞是我們感興趣的?

2. 發布的年份

3. 單詞使用的總次數

通過提取這些信息,處理不同長度的字符串數據的額外消耗被忽略掉了,但是我們仍然需要對比不同字符串的數值來區分哪些行數據是有我們感興趣的字段的。這就是 pytubes 可以做的工作:

import tubes

FILES = glob.glob(path.expanduser("~/src/data/ngrams/1gram/googlebooks*"))

WORD = "Python"

one_grams_tube = (tubes.Each(FILES)

.read_files()

.split()

.tsv(headers=False)

.multi(lambda row: (

row.get(0).equals(WORD.encode('utf-8')),

row.get(1).to(int),

row.get(2).to(int)

))

)

差不多 170 秒(3 分鐘)之后,onegrams_ 是一個 numpy 數組,里面包含差不多 14 億行數據,看起來像這樣(添加表頭部為了說明):

╒═══════════╤════════╤═════════╕

│ Is_Word │ Year │ Count │

╞═══════════╪════════╪═════════╡

│ 0 │ 1799 │ 2 │

├───────────┼────────┼─────────┤

│ 0 │ 1804 │ 1 │

├───────────┼────────┼─────────┤

│ 0 │ 1805 │ 1 │

├───────────┼────────┼─────────┤

│ 0 │ 1811 │ 1 │

├───────────┼────────┼─────────┤

│ 0 │ 1820 │ ... │

╘═══════════╧════════╧═════════╛

從這開始,就只是一個用 numpy 方法來計算一些東西的問題了:

每一年的單詞總使用量

谷歌展示了每一個單詞出現的百分比(某個單詞在這一年出現的次數/所有單詞在這一年出現的總數),這比僅僅計算原單詞更有用。為了計算這個百分比,我們需要知道單詞總量的數目是多少。

幸運的是,numpy讓這個變得十分簡單:

last_year = 2008

YEAR_COL = '1'

COUNT_COL = '2'

year_totals, bins = np.histogram(

one_grams[YEAR_COL],

density=False,

range=(0, last_year+1),

bins=last_year + 1,

weights=one_grams[COUNT_COL]

)

繪制出這個圖來展示谷歌每年收集了多少單詞:

很清楚的是在 1800 年之前,數據總量下降很迅速,因此這回曲解最終結果,并且會隱藏掉我們感興趣的模式。為了避免這個問題,我們只導入 1800 年以后的數據:

one_grams_tube = (tubes.Each(FILES)

.read_files()

.split()

.tsv(headers=False)

.skip_unless(lambda row: row.get(1).to(int).gt(1799))

.multi(lambda row: (

row.get(0).equals(word.encode('utf-8')),

row.get(1).to(int),

row.get(2).to(int)

))

)

這返回了 13 億行數據(1800 年以前只有 3.7% 的的占比)

Python 在每年的占比百分數

獲得 python 在每年的占比百分數現在就特別的簡單了。

使用一個簡單的技巧,創建基于年份的數組,2008 個元素長度意味著每一年的索引等于年份的數字,因此,舉個例子,1995 就只是獲取 1995 年的元素的問題了。

這都不值得使用 numpy 來操作:

word_rows = one_grams[IS_WORD_COL]

word_counts = np.zeros(last_year+1)

for _, year, count in one_grams[word_rows]:

word_counts[year] += (100*count) / year_totals[year]

繪制出 word_counts 的結果:

形狀看起來和谷歌的版本差不多

實際的占比百分數并不匹配,我認為是因為下載的數據集,它包含的用詞方式不一樣(比如:Python_VERB)。這個數據集在 google page 中解釋的并不是很好,并且引起了幾個問題:

人們是如何將 Python 當做動詞使用的?

'Python' 的計算總量是否包含 'Python_VERB'?等

幸運的是,我們都清楚我使用的方法生成了一個與谷歌很像的圖標,相關的趨勢都沒有被影響,因此對于這個探索,我并不打算嘗試去修復。

性能

谷歌生成圖片在 1 秒鐘左右,相較于這個腳本的 8 分鐘,這也是合理的。谷歌的單詞計算的后臺會從明顯的準備好的數據集視圖中產生作用。

舉個例子,提前計算好前一年的單詞使用總量并且把它存在一個單獨的查找表會顯著的節省時間。同樣的,將單詞使用量保存在單獨的數據庫/文件中,然后建立第一列的索引,會消減掉幾乎所有的處理時間。

這次探索確實展示了,使用 numpy 和 初出茅廬的 pytubes 以及標準的商用硬件和 Python,在合理的時間內從十億行數據的數據集中加載,處理和提取任意的統計信息是可行的,

語言戰爭

為了用一個稍微更復雜的例子來證明這個概念,我決定比較一下三個相關提及的編程語言:Python,Pascal,和Perl.

源數據比較嘈雜(它包含了所有使用過的英文單詞,不僅僅是編程語言的提及,并且,比如,python 也有非技術方面的含義?。?,為了這方面的調整, 我們做了兩個事情:

只有首字母大寫的名字形式能被匹配(Python,不是 python)

每一個語言的提及總數已經被轉換到了從 1800 年到 1960 年的百分比平均數,考慮到 Pascal 在 1970 年第一次被提及,這應該有一個合理的基準線。

結果:

對比谷歌 (沒有任何的基準線調整):

運行時間: 只有 10 分鐘多一點

代碼:gist.github.com/stestagg/91…

以后的 PyTubes 提升

在這個階段,pytubes 只有單獨一個整數的概念,它是 64 比特的。這意味著 pytubes 生成的 numpy 數組對所有整數都使用 i8 dtypes。在某些地方(像 ngrams 數據),8 比特的整型就有點過度,并且浪費內存(總的 ndarray 有 38Gb,dtypes 可以輕易的減少其 60%)。 我計劃增加一些等級 1,2 和 4 比特的整型支持(github.com/stestagg/py…)

更多的過濾邏輯 - Tube.skip_unless() 是一個比較簡單的過濾行的方法,但是缺少組合條件(AND/OR/NOT)的能力。這可以在一些用例下更快地減少加載數據的體積。

更好的字符串匹配 —— 簡單的測試如下:startswith, endswith, contains, 和 isoneof 可以輕易的添加,來明顯地提升加載字符串數據是的有效性。

一如既往,非常歡迎大家patches!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6172

    瀏覽量

    105625
  • python
    +關注

    關注

    56

    文章

    4799

    瀏覽量

    84810
  • 大數據
    +關注

    關注

    64

    文章

    8896

    瀏覽量

    137518

原文標題:使用 Python 分析 14 億條數據

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    小小的電阻,您真的吃透了它的用法嗎

    小小的電阻,您真的吃透了它的用法嗎
    發表于 05-28 22:39

    如何從零學大數據?

    設計,掌握從數據采集到實時計算到數據存儲再到前臺展示,所有工作一人搞定!并可以從架構的層次站在架構師的角度去完成一項目。第四階段:其他學習內容:Mahout 機器學習→ R 語言→
    發表于 03-01 15:41

    大數據運用的技術

    ,是一為分布式應用提供一致性服務的軟件,提供的功能包括:配置維護、域名服務、分布式同步、組件服務等,在大數據開發中要掌握ZooKeeper的常用命令及功能的實現方法。7. HBaseHBase是一
    發表于 04-08 16:50

    學習Python大數據與機器學習必會Matplotlib知識

    python的培訓學習中,我們會用python進行數據分析的學習與應用,并且在這一部分進行繪圖是必不可少的,所以為了看一下大家的實力,今天我們python培訓安排了
    發表于 07-05 17:57

    一條小小的內存條憑啥能發揮這么大的作用?

    內存條真的有這么神奇嗎?一條小小的內存條憑啥能發揮這么大的作用?如何去選擇電腦內存條?
    發表于 06-18 06:01

    求助,求推薦一簡單的小小的開發傳統51單片機的組合

    推薦一簡單的小小的開發傳統51單片機的組合
    發表于 06-27 08:18

    小小的疏忽就能毀掉EMI性能

    小小的疏忽就能毀掉EMI性能,感興趣的小伙伴們可以瞧一瞧。
    發表于 09-18 17:34 ?0次下載

    Python 實現一個大數據搜索引擎

    搜索是大數據領域里常見的需求。Splunk和ELK分別是該領域在非開源和開源領域里的領導者。本文利用很少的Python代碼實現了一基本的數據搜索功能,試圖讓大家理解
    的頭像 發表于 03-06 17:26 ?4762次閱讀

    python腳本看透Linux程序對庫的依賴

    我今天寫了一小小的python程序,可以在完全不看源代碼的情況下,分析a如果調用b.so的時候,會引用b.so的哪些函數。
    的頭像 發表于 12-24 13:44 ?3169次閱讀
    一<b class='flag-5'>個</b><b class='flag-5'>python</b>腳本看透Linux程序對庫的依賴

    Python做幾個表情包

    今天制作表情包用到的技術還是之前提到的Turtle庫,可以從之前的文章除了畫佩奇我們還要點更高級的,去學習Turtle的常用語法,然后就是PIL庫,之前通過這篇文章:Python騷操作|P
    的頭像 發表于 02-11 11:13 ?5205次閱讀

    小小的半導體芯片,改變了整個世界

    據國外媒體報道,說到互聯全球的技術,半導體芯片居功至偉。但是這小小的芯片,究竟是如何走進我們生活每一處的呢?
    的頭像 發表于 12-25 09:25 ?3295次閱讀

    小小的采樣電阻,還真有點門道!資料下載

    電子發燒友網為你提供小小的采樣電阻,還真有點門道!資料下載的電子資料下載,更有其他相關的電路圖、源代碼、課件教程、中文資料、英文資料、參考設計、用戶指南、解決方案等資料,希望可以幫助到廣大的電子工程師們。
    發表于 04-23 08:42 ?13次下載
    <b class='flag-5'>小小的</b>采樣電阻,還真有點門道!資料下載

    ?51單片機也可以實現一小小的智能家居√(smart-home)?

    ?51單片機也可以實現一小小的智能家居√(smart-home)開源所有代碼?文章目錄?51單片機也可以實現一小小的智能家居√(smart-home)開源所有代碼?一
    發表于 11-23 16:51 ?15次下載
    ?51單片機也可以實現一<b class='flag-5'>個</b><b class='flag-5'>小小的</b>智能家居√(smart-home)?

    【Linux內核】從小小的宏定義窺探Linux內核的精妙設計

    【Linux內核】從小小的宏定義窺探Linux內核的精妙設計
    的頭像 發表于 08-31 13:30 ?1964次閱讀

    小小的保險絲,究竟有哪些重要的作用呢

    保險絲(Fuse)是一種電氣元件,它起著非常重要的作用。今天弗瑞鑫小編將通過詳細闡述保險絲的作用,讓讀者了解這個小小的元件的重要性以及其在電子設備中的好處。
    的頭像 發表于 05-05 08:36 ?2074次閱讀
    主站蜘蛛池模板: 好大好硬好爽好深好硬视频 | 色女仆影院| 久久婷婷色一区二区三区| 国产综合欧美区在线| 高H黄暴NP辣H一女多男| 国产精品成人不卡在线观看| 国产自拍视频在线一区| 国产成人aaa在线视频免费观看| 草草久久久无码国产专区全集观看| AV色蜜桃一区二区三区| 国产午夜精品不卡视频| 小骚妇BBBXXX| 蜜芽一二三区| 国产强奷伦奷片| 99久久精品免费看国产一区二区| 我就去色色| 蜜桃视频无码区在线观看| 国产乱对白精彩在线播放| 69丰满少妇AV无码区| 午夜在线观看免费完整直播网| 久久久久综合一本久道| 丰满大屁俄罗斯肥女| 中文字幕在线观看网址| 色欲AV精品人妻一区二区三区| 久久精品视在线-2| 国产高清免费观看| 99久久99久久免费精品蜜桃| 亚洲 日韩 国产 中文视频| 欧美zzzoooxxx| 精品无码久久久久久久动漫| 成 人 动漫3d 在线看| 伊人久久电影院| 無码一区中文字幕少妇熟女网站 | 久久免费精品一区二区| 国产91无毒不卡在线观看| 伊人久久网国产伊人| 十九岁韩国电影在线观看| 美女议员被泄裸照| 妓女嫖客叫床粗话对白| 电影果冻传媒在线播放| 最新毛片网|