DPU最直接的作用是作為CPU的卸載引擎,接管網絡虛擬化、硬件資源池化等基礎設施層服務,釋放CPU的算力到上層應用。以網絡協議處理為例,要線速處理10G的網絡需要的大約4個Xeon CPU的核,也就是說,單是做網絡數據包處理,就可以占去一個8核高端CPU一半的算力。如果考慮40G、100G的高速網絡,性能的開銷就更加難以承受了。Amazon把這些開銷都稱之為“Datacenter Tax”,即還未運行業務程序,先接入網絡數據就要占去的計算資源。AWS Nitro產品家族旨在將數據中心開銷(為虛擬機提供遠程資源,加密解密,故障跟蹤,安全策略等服務程序)全部從CPU卸載到Nitro加速卡上,將給上層應用釋放30%的原本用于支付“Tax”的算力!
DPU可以成為新的數據網關,將安全隱私提升到一個新的高度。在網絡環境下,網絡接口是理想的隱私的邊界,但是加密、解密算法開銷都很大,例如國密標準的非對稱加密算法SM2、哈希算法SM3和對稱分組密碼算法SM4。如果用CPU來處理,就只能做少部分數據量的加密。在未來,隨著區塊鏈承載的業務的逐漸成熟,運行共識算法POW,驗簽等也會消耗掉大量的CPU算力。而這些都可以通過將其固化在DPU中來實現,甚至DPU將成為一個可信根。
DPU也可以成為存儲的入口,將分布式的存儲和遠程訪問本地化。隨著SSD性價比逐漸可接受,部分存儲遷移到SSD器件上已經成為可能,傳統的面向機械硬盤的SATA協議并不適用于SSD存儲,所以,將SSD通過本地PCIe或高速網絡接入系統就成為必選的技術路線。NVMe(Non Volatile Memory Express)就是用于接入SSD存儲的高速接口標準協議,可以通過PCIe作為底層傳輸協議,將SSD的帶寬優勢充分發揮出來。同時,在分布式系統中,還可通過NVMeover Fabrics(NVMe-oF)協議擴展到InfiniBand、Ethernet、或Fibre channel節點中,以RDMA的形式實現存儲的共享和遠程訪問。這些新的協議處理都可以集成在DPU中以實現對CPU的透明處理。進而,DPU將可能承接各種互連協議控制器的角色,在靈活性和性能方面達到一個更優的平衡點。
DPU將成為算法加速的沙盒,成為最靈活的加速器載體。DPU不完全是一顆固化的ASIC,在CXL、CCIX等標準組織所倡導CPU、GPU與DPU等數據一致性訪問協議的鋪墊下,將更進一步掃清DPU編程障礙,結合FPGA等可編程器件,可定制硬件將有更大的發揮空間,“軟件硬件化”將成為常態,異構計算的潛能將因各種DPU的普及而徹底發揮出來。在出現“Killer Application”的領域都有可能出現與之相對應的DPU,諸如傳統數據庫應用如OLAP、OLTP,5G邊緣計算,智能駕駛V2X等等。
來源:專用數據處理器(DPU)技術白皮書,中國科學院計算技術研究所,鄢貴海等
-
DPU
+關注
關注
0文章
365瀏覽量
24215
發布評論請先 登錄
相關推薦
評論