色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

分布式文件系統的HDFS是什么

汽車玩家 ? 來源:網絡整理 ? 作者:佚名 ? 2020-05-04 09:36 ? 次閱讀

一、HDFS介紹

上篇文章已經講到了,隨著數據量越來越大,在一臺機器上已經無法存儲所有的數據了,那我們會將這些數據分配到不同的機器來進行存儲,但是這就帶來一個問題:不方便管理和維護

所以,我們就希望有一個系統可以將這些分布在不同操作服務器上的數據進行統一管理,這就有了分布式文件系統

HDFS是分布式文件系統的其中一種(目前用得最廣泛的一種)

在使用HDFS的時候是非常簡單的:雖然HDFS是將文件存儲到不同的機器上,但是我去使用的時候是把這些文件當做是存儲在一臺機器的方式去使用(背后卻是多臺機器在執行):

好比:我調用了一個RPC接口,我給他參數,他返回一個response給我。RPC接口做了什么事其實我都不知道的(可能這個RPC接口又調了其他的RPC接口)-----屏蔽掉實現細節,對用戶友好

分布式文件系統的HDFS是什么

明確一下:HDFS就是一個分布式文件系統,一個文件系統,我們用它來做什么?存數據呀。

下面,我們來了解一下HDFS的一些知識,能夠幫我們更好地去「使用」HDFS

二、HDFS學習

從上面我們已經提到了,HDFS作為一個分布式文件系統,那么它的數據是保存在多個系統上的。例如,下面的圖:一個1GB的文件,會被切分成幾個小的文件,每個服務器都會存放一部分。

分布式文件系統的HDFS是什么

那肯定會有人會問:那會切分多少個小文件呢?默認以128MB的大小來切分,每個128MB的文件,在HDFS叫做塊(block)

顯然,這個128MB大小是可配的。如果設置為太小或者太大都不好。如果切分的文件太小,那一份數據可能分布到多臺的機器上(尋址時間就很慢)。如果切分的文件太大,那數據傳輸時間的時間就很慢。

PS:老版本默認是64MB

一個用戶發出了一個1GB的文件請求給HDFS客戶端,HDFS客戶端會根據配置(現在默認是128MB),對這個文件進行切分,所以HDFS客戶端會切分為8個文件(也叫做block),然后每個服務器都會存儲這些切分后的文件(block)。現在我們假設每個服務器都存儲兩份。

分布式文件系統的HDFS是什么

這些存放真實數據的服務器,在HDFS領域叫做DataNode

分布式文件系統的HDFS是什么

現在問題來了,HDFS客戶端按照配置切分完以后,怎么知道往哪個服務器(DataNode)放數據呢?這個時候,就需要另一個角色了,管理者(NameNode)。

NameNode實際上就是管理文件的各種信息(這種信息專業點我們叫做MetaData「元數據」),其中包括:文文件路徑名,每個Block的ID和存放的位置等等。

所以,無論是讀還是寫,HDFS客戶端都會先去找NameNode,通過NameNode得知相應的信息,再去找DataNode

如果是寫操作,HDFS切分完文件以后,會詢問NameNode應該將這些切分好的block往哪幾臺DataNode上寫。

如果是讀操作,HDFS拿到文件名,也會去詢問NameNode應該往哪幾臺DataNode上讀數據。

分布式文件系統的HDFS是什么

2.1 HDFS備份

作為一個分布式系統(把大文件切分為多個小文件,存儲到不同的機器上),如果沒有備份的話,只要有其中的一臺機器掛了,那就會導致「數據」是不可用狀態的。

寫到這里,如果看過我的Kafka和ElasticSearch的文章可能就懂了。其實思想都是一樣的。

Kafka對partition備份,ElasticSearch對分片進行備份,而到HDFS就是對Block進行備份。

盡可能將數據備份到不同的機器上,即便某臺機器掛了,那就可以將備份數據拉出來用。

對Kafka和ElasticSearch不了解的同學,可以關注我的GitHub,搜索關鍵字即可查詢(我覺得還算寫得比較通俗易懂的)

注:這里的備份并不需要HDFS客戶端去寫,只要DataNode之間互相傳遞數據就好了。

分布式文件系統的HDFS是什么

2.2 NameNode的一些事

從上面我們可以看到,NameNode是需要處理hdfs客戶端請求的。(因為它是存儲元數據的地方,無論讀寫都需要經過它)。

現在問題就來了,NameNode是怎么存放元數據的呢?

如果NameNode只是把元數據放到內存中,那如果NameNode這臺機器重啟了,那元數據就沒了。

如果NameNode將每次寫入的數據都存儲到硬盤中,那如果只針對磁盤查找和修改又會很慢(因為這個是純IO的操作)

說到這里,又想起了Kafka。Kafka也是將partition寫到磁盤里邊的,但人家是怎么寫的?順序IO

NameNode同樣也是做了這個事:修改內存中的元數據,然后把修改的信息append(追加)到一個名為editlog的文件上。

由于append是順序IO,所以效率也不會低。現在我們增刪改查都是走內存,只不過增刪改的時候往磁盤文件editlog里邊追加一條。這樣我們即便重啟了NameNode,還是可以通過editlog文件將元數據恢復。

分布式文件系統的HDFS是什么

現在也有個問題:如果NameNode一直長期運行的話,那editlog文件應該會越來越大(因為所有的修改元數據信息都需要在這追加一條)。重啟的時候需要依賴editlog文件來恢復數據,如果文件特別大,那啟動的時候不就特別慢了嗎?

的確是如此的,那HDFS是怎么做的呢?為了防止editlog過大,導致在重啟的時候需要較長的時間恢復數據,所以NameNode會有一個內存快照,叫做fsimage

說到快照,有沒有想起Redis的RDB!!

這樣一來,重啟的時候只需要加載內存快照fsimage+部分的editlog就可以了。

想法很美好,現實還需要解決一些事:我什么時候生成一個內存快照fsimage?我怎么知道加載哪一部分的editlog?

問題看起來好像復雜,其實我們就只需要一個定時任務。

如果讓我自己做的話,我可能會想:我們加一份配置,設置個時間就OK了

如果editlog大到什么程度或者隔了多長時間,我們就把editlog文件的數據跟內存快照fsiamge給合并起來。然后生成一個新的fsimage,把editlog給清空,覆蓋舊的fsimage內存快照這樣一來,NameNode每次重啟的時候,拿到的都是最新的fsimage文件,editlog里邊的都是沒合并到fsimage的。根據這兩個文件就可以恢復最新的元數據信息了。

HDFS也是類似上面這樣干的,只不過它不是在NameNode起個定時的任務跑,而是用了一個新的角色:SecondNameNode。至于為什么?可能HDFS覺得合并所耗費的資源太大了,不同的工作交由不同的服務器來完成,也符合分布式的理念。

分布式文件系統的HDFS是什么

現在問題還是來了,此時的架構NameNode是單機的。SecondNameNode的作用只是給NameNode合并editlog和fsimage文件,如果NameNode掛了,那client就請求不到了,而所有的請求都需要走NameNode,這導致整個HDFS集群都不可用了。

于是我們需要保證NameNode是高可用的。一般現在我們會通過Zookeeper來實現。架構圖如下:

分布式文件系統的HDFS是什么

主NameNode和從NameNode需要保持元數據的信息一致(因為如果主NameNode掛了,那從NameNode需要頂上,這時從NameNode需要有主NameNode的信息)。

所以,引入了Shared Edits來實現主從NameNode之間的同步,Shared Edits也叫做JournalNode。實際上就是主NameNode如果有更新元數據的信息,它的editlog會寫到JournalNode,然后從NameNode會在JournalNode讀取到變化信息,然后同步。從NameNode也實現了上面所說的SecondNameNode功能(合并editlog和fsimage)

分布式文件系統的HDFS是什么

稍微總結一下:

NameNode需要處理client請求,它是存儲元數據的地方

NameNode的元數據操作都在內存中,會把增刪改以editlog持續化到硬盤中(因為是順序io,所以不會太慢)

由于editlog可能存在過大的問題,導致重新啟動NameNode過慢(因為要依賴editlog來恢復數據),引出了fsimage內存快照。需要跑一個定時任務來合并fsimage和editlog,引出了SecondNameNode

又因為NameNode是單機的,可能存在單機故障的問題。所以我們可以通過Zookeeper來維護主從NameNode,通過JournalNode(Share Edits)來實現主從NameNode元數據的一致性。最終實現NameNode的高可用。

2.3 學點DataNode

從上面我們就知道,我們的數據是存放在DataNode上的(還會備份)。

如果某個DataNode掉線了,那HDFS是怎么知道的呢?

DataNode啟動的時候會去NameNode上注冊,他倆會維持心跳,如果超過時間閾值沒有收到DataNode的心跳,那HDFS就認為這個DataNode掛了。

還有一個問題就是:我們將Block存到DataNode上,那還是有可能這個DataNode的磁盤損壞了部分,而我們DataNode沒有下線,但我們也不知道損壞了。

一個Block除了存放數據的本身,還會存放一份元數據(包括數據塊的長度,塊數據的校驗和,以及時間戳)。DataNode還是會定期向NameNode上報所有當前所有Block的信息,通過元數據就可校驗當前的Block是不是正常狀態。

最后

其實在學習HDFS的時候,你會發現很多的思想跟之前學過的都類似。就比如提到的Kafka、Elasticsearch這些常用的分布式組件。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 接口
    +關注

    關注

    33

    文章

    8685

    瀏覽量

    151649
  • 服務器
    +關注

    關注

    12

    文章

    9285

    瀏覽量

    85844
  • HDFS
    +關注

    關注

    1

    文章

    30

    瀏覽量

    9623
收藏 人收藏

    評論

    相關推薦

    Hadoop 生態系統在大數據處理中的應用與實踐

    基礎。它將大文件分割成多個數據塊,存儲在不同節點上,實現高容錯性和高擴展性。NameNode 負責管理文件系統命名空間和元數據,DataNode 負責實際數據存儲。上傳文件時,HDFS
    的頭像 發表于 01-21 17:48 ?69次閱讀

    基于ptp的分布式系統設計

    在現代分布式系統中,精確的時間同步對于確保數據一致性、系統穩定性和性能至關重要。PTP(Precision Time Protocol)是一種網絡協議,用于在分布式
    的頭像 發表于 12-29 10:09 ?148次閱讀

    服務器數據恢復—Lustre分布式文件系統數據恢復案例

    5臺節點服務器,每臺節點服務器上有一組RAID5陣列。每組RAID5陣列上有6塊硬盤(其中1塊硬盤設置為熱備盤,其他5塊硬盤為數據盤)。上層系統環境為Lustre分布式文件系統。 機房天花板漏水
    的頭像 發表于 12-25 11:39 ?142次閱讀
    服務器數據恢復—Lustre<b class='flag-5'>分布式</b><b class='flag-5'>文件系統</b>數據恢復案例

    HarmonyOS Next 應用元服務開發-分布式數據對象遷移數據文件資產遷移

    使用分布式數據對象遷移數據,當需要遷移的數據較大(100KB以上)或需要遷移文件時,可以使用分布式數據對象。原理與接口說明詳見分布式數據對象跨設備數據同步。 說明:自API 12起,由
    發表于 12-24 10:11

    HarmonyOS Next 應用元服務開發-分布式數據對象遷移數據權限與基礎數據

    使用分布式數據對象遷移數據,當需要遷移的數據較大(100KB以上)或需要遷移文件時,可以使用分布式數據對象。原理與接口說明詳見分布式數據對象跨設備數據同步。 說明:自API 12起,由
    發表于 12-24 09:40

    Linux根文件系統的掛載過程

    Linux根文件系統(rootfs)是Linux系統中所有其他文件系統和目錄的起點,它是內核啟動時掛載的第一個文件系統
    的頭像 發表于 10-05 16:50 ?481次閱讀

    如何修改buildroot和debian文件系統

    本文檔主要介紹在沒有編譯環境的情況下,如何修改buildroot和debian文件系統方法,如在buildroot文件系統中添加文件、修改目錄等文件操作,在debian
    的頭像 發表于 07-22 17:46 ?526次閱讀
    如何修改buildroot和debian<b class='flag-5'>文件系統</b>

    分布式SCADA系統的特點的組成

    在工業自動化和能源管理領域,SCADA(Supervisory Control And Data Acquisition)系統扮演著至關重要的角色。其中,分布式SCADA系統憑借其獨特的結構和功能
    的頭像 發表于 06-07 14:43 ?591次閱讀

    華為分布式存儲連續三年榮膺2024年Gartner“客戶之選”

    近日,全球權威咨詢與分析機構Gartner發布《2024年Gartner Peer InsightsTM 分布式文件系統與對象存儲“客戶之聲”》報告,華為憑借其OceanStor分布式存儲解決方案再次榮獲“客戶之選”殊榮,這已是
    的頭像 發表于 05-24 10:12 ?744次閱讀

    浪潮信息發布AS13000G7-N系列分布式全閃存儲

    浪潮信息近日推出了專為大型AI模型優化的AS13000G7-N系列分布式全閃存儲。該系列基于浪潮信息自研的分布式文件系統,結合新一代數據加速引擎DataTurbo,為用戶提供卓越的存儲解決方案。
    的頭像 發表于 05-14 10:03 ?598次閱讀

    浪潮信息發布為大模型專門優化的分布式全閃存儲AS13000G7-N系列

    近日,浪潮信息發布為大模型專門優化的分布式全閃存儲AS13000G7-N系列。該系列依托浪潮信息自研分布式文件系統,搭載新一代數據加速引擎DataTurbo,
    的頭像 發表于 05-08 09:38 ?597次閱讀
    浪潮信息發布為大模型專門優化的<b class='flag-5'>分布式</b>全閃存儲AS13000G7-N系列

    分布式光伏監控系統解決方案

    分布式光伏發電系統的發電量,提高分布式光伏發電系統的利用率。發展分布式光伏發電對優化能源結構、實現“雙碳目標”、推動節能減排、實現經濟可持續
    的頭像 發表于 04-22 15:56 ?1051次閱讀
    <b class='flag-5'>分布式</b>光伏監控<b class='flag-5'>系統</b>解決方案

    HarmonyOS實戰案例:【分布式賬本】

    Demo基于Open Harmony系統使用ETS語言進行編寫,本Demo主要通過設備認證、分布式拉起、分布式數據管理等功能來實現。
    的頭像 發表于 04-12 16:40 ?1370次閱讀
    HarmonyOS實戰案例:【<b class='flag-5'>分布式</b>賬本】

    分布式大屏控制系統對網絡環境的要求

    分布式大屏控制系統對網絡環境的要求較高,主要是因為該系統需要實時傳輸大量的視頻信號數據,以保證多個顯示屏幕的同步顯示。以下是幾個關鍵的網絡環境要求: 高帶寬:分布式大屏控制
    的頭像 發表于 01-29 14:52 ?616次閱讀

    分布式大屏控制系統的工作原理

    分布式大屏控制系統是一種基于分布式計算、云計算和大數據技術的控制系統,具有高效、穩定、靈活的特點。該系統通過將各個子
    的頭像 發表于 01-29 14:24 ?823次閱讀
    主站蜘蛛池模板: 亚洲欧美综合乱码精品成人网 | 久久99免费视频| 久久精品国产在热亚洲| 日本黄色官网| 在线 日韩 欧美 国产 社区| 波多久久亚洲精品AV无码| 狠狠插综合| 色偷偷亚洲天堂| a亚洲在线观看不卡高清| 国产亚洲精品成人a在线| 青苹果乐园在线观看电视剧| 最近的中文字幕2019国语 | 亚洲精品人成电影网| 爱看吧孕妇网| 美女诱惑性感揉胸| 亚洲色噜噜狠狠网站| 国产高清亚洲| 日本一二三区视频在线| 91福利在线观看| 久久这里只有精品视频9| 亚洲爆乳无码精品AAA片蜜桃| G0GO人体大尺香蕉| 免费精品国产人妻国语| 中国老太性色xxxxxhd| 寂寞夜晚免费观看视频| 亚洲国产成人在线| 国产色婷婷亚洲99精品| 私人玩物在线观看| 成人免费在线观看视频| 青柠在线观看视频在线高清完整| 中文字幕在线观看亚洲视频| 久久99蜜桃精品麻豆| 亚洲一卡久久4卡5卡6卡7卡| 黑色丝袜美女被网站| 亚洲AV 中文字幕 国产 欧美| 99久久做夜夜爱天天做精品| 毛片在线全部免费观看| 69国产精品人妻无码免费| 亚洲 欧美 国产 在线 日韩| 超碰97 总站 中文字幕| 日本强好片久久久久久AAA|