色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一文詳解基于以太網的GPU Scale-UP網絡

SDNLAB ? 來源:zartbot ? 2024-04-22 17:22 ? 次閱讀

最近Intel Gaudi-3的發布,基于RoCE的Scale-UP互聯,再加上Jim Keller也在談用以太網替代NVLink。而Jim所在的Tenstorrent就是很巧妙地用Ethernet實現了片上網絡之間的互聯。所以今天有必要來講講這個問題。

實現以太網替代NVLink需要什么手段,不只是一個傳輸協議的問題,還涉及到GPU架構的一系列修改,本質上這個問題等價于如何把HBM掛在以太網上,并實現Scale-Out和滿足計算需求的一系列通信優化,例如SHARP這類In-Network-Computing等, 全球來看能同時搞定這個問題的人也就那么幾個,至少明確的說UltraEthernet壓根就沒想明白。

有必要回答以下幾個問題,或者說博通要搞個NVLink一樣的東西出來,必須解決如下幾個問題:

1.Latency Boundary是多少?高吞吐高速Serdes FEC和超過萬卡規模的互聯帶來的鏈路延遲都是不可抗的,這些并不是說改一個包協議,弄一個HPC-Ethernet就能搞定的。

2.傳輸的語義是什么?做網絡的這群人大概只懂個SEND/RECV。舉個例子,UEC定義的Reliable Unordered Delivery for Idempotent operations(RUDI)其實就是一個典型的技術上的錯誤,一方面它滿足了交換律和冪等律,但是針對一些算子,例如Reduction的加法如何實現冪等?顯然這群人也沒做過,還有針對NVLink上那種細顆粒度的訪存,基于結合律的優化也是不支持的。更一般來說,它必須演進到Semi-Lattice的語義才行。

3.更大內存在NVLINK上池化的問題? 解決計算問題中Compute Bound算子的部分時間/空間折中,例如KV Cache等。

4.動態路由和擁塞控制能力1:1無收斂的Lossless組網對于萬卡集群通過一些hardcode的調優沒什么太大的問題,而對于十萬卡和百萬卡規模集群來看,甚至需要RDMA進行長傳,這些問題目前來看沒有一個商業廠商能解決的。

考慮到超大規模模型訓練的一系列需求,把HBM直接掛載在以太網上并實現了一系列集合通信卸載的,放眼全球現在也就只有少數幾個團隊干過,前三個問題我是在四年前做NetDAM項目時就已經完全解決干凈了,第四個去年也在某個云的團隊一起解決干凈了。

下面我們將介紹一些Gaudi3/Maia100/TPU等多個廠商的互聯,然后再分析一下NVLink的演進,最后再來談談如何能夠真正地解決這些問題 at Scale, 再強調(Diss)一下at Scale這事沒做好就別瞎叫。

1. 當前ScaleUP互聯方案概述

1.1 Intel Gaudi3

從Gaudi3 whitepaper[1]來看,Gaudi的Die如下圖所示:

bfbf48fe-0089-11ef-a297-92fbcf53809c.png

內置了24個RoCE 200Gbps的鏈路,其中21個用于內部FullMesh,三個用于外部鏈接。

bfd12448-0089-11ef-a297-92fbcf53809c.png

超大規模組網的拓撲,計算了一下Leaf交換機的帶寬是一片25.6T的交換機。

c01538e0-0089-11ef-a297-92fbcf53809c.png

但是Intel WhitePaper有一系列的問題值得去仔細爬一下。

1.1.1 擁塞控制

Intel的白皮書闡述的是沒有使用PFC,而是采用了Selective ACK機制。同時采用了SWIFT來做CC算法避免使用ECN,基本上明眼人一看,這就是復用了Google Falcon在Intel IPU上做的Reliable Transport Engine。

1.1.2 多路徑和In-Network Reduction

Intel宣稱支持Packet Spraying,但是交換機用的哪家的呢,一定不是自己家的Tofino。那么只能是博通了。另外In-Network Reduction支持了FP8/BF16等, Operator只支持Sum/Min/Max,再加上UEC有一些關于In-Network-Computing(INC)的工作組,應該基本上就清楚了。

1.2 Microsoft Maia100

沒有太多的信息,只有4800Gbps單芯片的帶寬,然后單個服務器機框4張Maia100,整個機柜8個服務器構成一個32卡的集群。

放大交換機和互聯的線纜來看,有三個交換機,每個服務器有24個400Gbps網絡接口,網口間有回環的連接線(圖中黑色),以及對外互聯線(紫色)。

c08f6fd4-0089-11ef-a297-92fbcf53809c.png

也就是說很有可能構成如下的拓撲:

c0a32de4-0089-11ef-a297-92fbcf53809c.png

即在主板內部構成一個口字形的互聯,然后在X方向構成一個環,而在Y方向則是分別構成三個平面連接到三個交換機。

交換機上行進行機柜間的Scale-Out連接,每個機柜每個平面總共有32個400G接口, 再加上1:1收斂,上行交換機鏈路算在一起正好一個25.6T的交換機,這樣搭幾層擴展理論應該可行,算是一個Scale-Up和Scale-Out兩張網絡合并的代表。至于協議對于Torus Ring來看,簡單的點到點RoCE應該問題不大,互聯到Scale-Out交換機時就需要多路徑的能力了。

缺點是延遲可能有點大,不過這類自定義的芯片如果不是和CUDA那樣走SIMT,而是走脈動陣列的方式,延遲也不是太大的問題。另外Torus整個組就4塊,集合通信延遲影響也不大。但是個人覺得這東西可能還是用于做推理為主的,一般CSP都會先做一塊推理用的芯片,再做訓練的。另外兩家CSP也有明確的訓練推理區分AWS Trainium/Inferentia, Google也是V5p/V5e。

1.3 Google TPU

TPU互聯大家已經很清楚了,Torus Ring的拓撲結構和光交換機來做鏈路切換。

c0c142f2-0089-11ef-a297-92fbcf53809c.pngc0cec8fa-0089-11ef-a297-92fbcf53809c.png

OCS有兩個目的,一個是按照售賣的規模進行動態切分,例如TPUv5p 單芯片支持4800Gbps的ICI(Inter-Chip Interconnect)連接,拓撲為3D-Torus,整個集群8960塊TPUv5p 最大售賣規模為6144塊構成一個3D-Torus。

c0ec9e2a-0089-11ef-a297-92fbcf53809c.png

通過OCS可以切分這些接口進行不同尺度的售賣, 另一個是針對MoE這些AlltoAll的通信做擴展bisection 帶寬的優化。

c0fce4ce-0089-11ef-a297-92fbcf53809c.png

還有一個是容錯,這是3D Torus拓撲必須要考慮的一個問題,有一些更新是這周NSDI‘24 講到一個《Resiliency at Scale: Managing Google’s TPUv4 Machine Learning Supercomputer》[2] 后面我們將專門介紹。 另一方面Google還支持通過數據中心網絡擴展兩個Pod構建Multislice的訓練,Pod間做DP并行。

c10355fc-0089-11ef-a297-92fbcf53809c.pngc125986a-0089-11ef-a297-92fbcf53809c.png

1.4 AWS Trainium

Trainium架構如下

c145c374-0089-11ef-a297-92fbcf53809c.png

16片構成一個小的Cluster,片間互聯如下:

c14a98fe-0089-11ef-a297-92fbcf53809c.png

也是一個2D Torus Ring的結構。

1.5 Tesla Dojo

它搞了一個自己的Tesla Transport Protocol,統一Wafer/NOC和外部以太網擴展。

c169ae74-0089-11ef-a297-92fbcf53809c.png

它通過臺積電的System-on-Wafer將25個D1計算單元封裝在一個晶圓上, 并采用5x5的方式構建2D Mesh網絡互聯所有的計算單元, 單個晶圓構成一個Tile.每個Tile有40個I/O Die。

c1859b48-0089-11ef-a297-92fbcf53809c.png

Tile之間采用9TB/s互聯。

c19f52ae-0089-11ef-a297-92fbcf53809c.png

可以通過片上網絡路由繞開失效的D1核或者Tile。

c1d06a06-0089-11ef-a297-92fbcf53809c.png

對外Scale-Out的以太網有一塊DIP,每個D1計算引擎有自己的SRAM, 而其它內存放置在帶HBM的Dojo接口卡(DIP)上。

c1f08066-0089-11ef-a297-92fbcf53809c.png

每個網卡通過頂部的900GB/s特殊總線TTP(Tesla Transport Protocol)連接到Dojo的I/O Die上, 正好對應800GB HBM的帶寬, 每個I/O Die可以連接5個Dojo接口卡(DIP)。

c20a37d6-0089-11ef-a297-92fbcf53809c.png

由于內部通信為一個2D Mesh網絡, 長距離通信代價很大, 針對片上路由做了一些特殊的設計。

c229f620-0089-11ef-a297-92fbcf53809c.png

路由在片上提供多路徑,并且不保序, 同時針對大范圍長路徑的通信, 它很巧妙的利用Dojo接口卡構建了一個400Gbps的以太網TTPoE總線來做shortcut。

c2450f82-0089-11ef-a297-92fbcf53809c.png

Dojo通過System-on-wafer的方式構建了基于晶圓尺度的高密度的片上網絡, 同時通過私有的片間高速短距離總線構建了9TB/s的wafer間的通信網絡. 然后將I/O和內存整合在DIP卡上,提供每卡900GB/s連接到晶圓片上網絡的能力,構建了一個超大規模的2D Mesh網絡, 但是考慮到片上網絡通信距離過長帶來的擁塞控制, 又設計了基于DIP卡的400Gbps逃生通道,通過片外的以太網交換機送到目的晶圓上。

1.6 Tenstorrent

Jim keller在Tenstorrent的片上網絡設計就是使用的以太網,結構很簡單, Tensor+控制頭構成一個以太網報文并可以觸發條件執行等能力,如下所示:

c25041a4-0089-11ef-a297-92fbcf53809c.png

片間互聯全以太網:

c26f0f9e-0089-11ef-a297-92fbcf53809c.png

并且支持多種功能通信源語。

c279f972-0089-11ef-a297-92fbcf53809c.png

然后就是圖的劃分,主觀覺得每個stage的指令數是可以估計的,算子進出的帶寬是可以估計的。

c2851866-0089-11ef-a297-92fbcf53809c.png

那么最后mapping到核上的約束也似乎好做:

c2a998ee-0089-11ef-a297-92fbcf53809c.png

也是很簡單的一個2D Mesh結構:

c2d29820-0089-11ef-a297-92fbcf53809c.png

可以擴展到40960個core的大規模互聯。

c2d91d6c-0089-11ef-a297-92fbcf53809c.png

2. Scale-UP的技術需求

2.1 拓撲選擇

我們可以注意到在ScaleUp網絡選擇中,Nvidia當前是1:1收斂的FatTree構建,而其它幾家基本上都是Torus Ring或者2D Mesh,而Nvidia后續會演進到DragonFly。

c30428b8-0089-11ef-a297-92fbcf53809c.png

背后的邏輯我們可以在hammingMesh的論文中看到的選擇如下:

c31c8bec-0089-11ef-a297-92fbcf53809c.png

可以看到對于Allreduce帶寬來看,Torus是最便宜的,性能也能夠基本跑到峰值。但是針對MoE這類模型的AlltoAll就要考察bisection帶寬了,而DragonFly無論是在布線復雜度還是GlobBW以及網絡直徑上都還不錯,所以明白了Bill Dally的選擇了吧?

2.2 動態路由和可靠傳輸

雖然所有的人都在扯RoCE有缺陷,BF3+Spectrum-4有Adaptive Routing,博通有DLB/GLB來演進Packet Spraying還有和思科一樣的VoQ的技術,當然還有Meta的多軌道靜態路由做流量工程,或者管控平面去調度親和性。但簡單來說,這些都是在萬卡規模可以解決一部分問題的,而at Scale這個難題現在要到十萬卡以上規模,怎么做?

從算法上解決Burst是一件很難的事情,而更難的是所有的人不去想Burst怎么造成的,天天屎上雕花的去測交換機buffer來壓burst,據說還有人搞確定性網絡和傅立葉分析來搞?想啥呢?

這是一個非常難的問題,就看工業界其它幾個廠什么時候能想明白吧?另一方面是系統失效和彈性售賣,Google在NSDI24的文章里面提到會產生碎片的原因:

c33aa0c8-0089-11ef-a297-92fbcf53809c.png

如果不考慮這些問題會導致調度難題。ICI內部的路由表實現配合OCS交換機是一個不錯的選擇。

c36bcf22-0089-11ef-a297-92fbcf53809c.pngc38e4a70-0089-11ef-a297-92fbcf53809c.png

這篇論文詳細地公開了ICI的物理層/可靠傳輸層/路由層和事務層,后面會詳細講解一下這篇論文。

為什么這個事情對以太網支持ScaleUP很重要呢?因為以太網一定需要在這里實現一個路由層支撐DragonFly和失效鏈路切換的能力。

3. Scale UP延遲重要么? 其實回答這個問題本質是GPU如何做Latency Hidding,以及Latency上NVLink和RDMA之間的差異。需要注意的是本來GPU就是一個Throughput Optimized處理器,又極致的追求低延遲那么一定是實現上有問題。而本質上的問題是NVLink是內存語義,而RDMA是消息語義,另一方面是RDMA在異構計算實現的問題。

3.1 RDMA實現的缺陷

RDMA相對于NVLink延遲大的關鍵因素在CPU

c3aed858-0089-11ef-a297-92fbcf53809c.png

英偉達在通過GDA-KI來解決:

c3d13902-0089-11ef-a297-92fbcf53809c.png

這樣來看實際上很多訪存延遲都更容易隱藏了。

3.2 細粒度的內存訪問

另一個問題是NVLink基于內存語義,有大量細粒度的Load/Store訪問,因此對傳輸效率和延遲非常重要,但如果用以太網RDMA替換該怎么做呢?一來肯定就要說這個事情,包太長了,需要HPC Ethernet。

c3f73166-0089-11ef-a297-92fbcf53809c.png

其實這就是我在NetDAM里面一直闡述的一個問題,對于RDMA的消息,需要實現對內的Semi-Lattice語義。

交換律可以保證數據可以用UnOrder方式提交。

冪等保證了丟包重傳的二意性問題,但是需要注意的是對于Reduce這樣的加法操作有副作用時,需要基于事務或者數據的冪等處理,當然我在做NetDAM的時候也解決了。

結合律針對細粒度的內存訪問,通過結合律編排,提升傳輸效率。

對于訪存的需求,在主機內的協議如下:

c402c422-0089-11ef-a297-92fbcf53809c.png

通常是一個FLIT的大小,而在這個基礎上要支持超大規模的ScaleUP互聯和支撐可靠性又要加一些路由頭,還有以太網頭,還有如果超大規模集群要多租戶隔離還有VPC頭,這些其實支持起來都沒有太大問題的,因為當你考慮到了 結合律即可。但是UEC似乎完全沒理解到,提供了RUDI的支持交換律和冪等律支持了,結合律忘了,真是一個失誤。 而英偉達針對這個問題怎么解的呢?結合律編碼:

c41d09c2-0089-11ef-a297-92fbcf53809c.pngc42792d4-0089-11ef-a297-92fbcf53809c.png

最終細顆粒度訪存的問題解決了。

c434f7da-0089-11ef-a297-92fbcf53809c.png

下一代的NVLink一定會走到這條路里面來Infiniband和NVLink這兩張ScaleOut和ScaleUP網絡一定會融合。

3.2 ScaleUP的內存池化

現在很多大模型的問題都在于HBM容量不夠,當然英偉達通過拉個Grace和NVLink C2C擴展,本質上是ScaleUP網絡需要池化內存。

c458edde-0089-11ef-a297-92fbcf53809c.png

是否還有別的方式呢?英偉達其實已經在干了,附送一篇論文的截圖,后面詳細會講。

c47e43ae-0089-11ef-a297-92fbcf53809c.pngc48910ae-0089-11ef-a297-92fbcf53809c.png

3. 結論 任何一家公司如果想做Ethernet的Scale UP,需要考慮以下大量的問題:

延遲并不是那么重要,配合GPU做一些訪存的修改FinePack成Message語義,然后再Cache上處理一下隱藏延遲即可;

ScaleUP網絡的動態路由和租戶隔離能力非常關鍵,要想辦法做好路由,特別是資源受到鏈路失效產生的碎片問題;

RDMA語義不完善,而簡單的抄SHARP也有一大堆坑,需要實現Semi-Lattice語義,并且支撐一系列有副作用的操作實現冪等;

Fabric的多路徑轉發和擁塞控制,提升整個Fabric利用率;

大規模內存池化。

當然我再勸你們好好讀讀NetDAM的論文,基于以太網ScaleUP直連HBM的實踐,消息編碼和Jim Keller做的幾乎一致,而且都是在同一時期不同出發點的工作,另一方面大規模池化天然就支持。還有就是原生的In-Network-Computing/Programming加速。

c4b515b4-0089-11ef-a297-92fbcf53809c.png

當然擁塞控制和多路徑轉發是最近一年多和幾個團隊一起搞的新的工作,至此基本上拼圖已經補全了。


審核編輯:劉清
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 以太網
    +關注

    關注

    40

    文章

    5433

    瀏覽量

    171926
  • 單芯片
    +關注

    關注

    3

    文章

    420

    瀏覽量

    34587
  • 交換機
    +關注

    關注

    21

    文章

    2645

    瀏覽量

    99759
  • Mesh網絡
    +關注

    關注

    0

    文章

    44

    瀏覽量

    14227
  • HBM
    HBM
    +關注

    關注

    0

    文章

    381

    瀏覽量

    14774

原文標題:談談基于以太網的GPU Scale-UP網絡

文章出處:【微信號:SDNLAB,微信公眾號:SDNLAB】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    詳解車載以太網

    以太網技術在生活中的應用隨處可見,日常電腦上網,或者手機上網都與以太網密不可分。現在汽車中的5G車聯網、V2X,以及后面汽車的智能化應用這些都跟以太網技術密不可分。
    發表于 08-07 17:01 ?6319次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>詳解</b>車載<b class='flag-5'>以太網</b>

    EtherCAT實時以太網分析儀功能詳解#以太網

    以太網ethercat
    ZLG致遠電子
    發布于 :2022年12月12日 10:04:00

    以太網是什么鬼?以太網基礎知識詳解

    以太網
    電子學習
    發布于 :2023年02月07日 21:05:57

    車載以太網基礎培訓——車載以太網的鏈路層#車載以太網

    車載以太網
    北匯信息POLELINK
    發布于 :2023年09月19日 16:25:21

    車載以太網基礎培訓——網絡層#車載以太網

    車載以太網
    北匯信息POLELINK
    發布于 :2023年09月20日 08:51:32

    以太網和工業以太網的不同

    以太網媒體訪問控制的物理層和數據鏈路層。這些標準也說明子配置以太網網絡的規則,以及各種網絡元件如何彼此協作。以太網支持多臺計算機通過
    發表于 10-23 14:20

    詳解工業以太網

    通過卓越的能效比和更加高效的設備節省更多開支。以太網還能單挑重任,作為唯的組網技術,把車間的自動化系統連接到用于控制車間的企業IT系統——在提升性能的同時簡化網絡的整體設計。
    發表于 07-18 07:40

    以太網的分類及靜態以太網交換和動態以太網交換、介紹

    以太網交換技術具有許多類型,各自宣傳其具有不同的優點;通過簡單的鼠標即可增加、移動和改變往來落的結構;比網橋和路由器更為有效地進行網絡分段;為高性能工作站或服務器提供高寬帶。網絡管理者渴望采用這些
    的頭像 發表于 10-07 10:06 ?6497次閱讀

    詳解什么是實時以太網

    工業以太網——實時以太網——在過去幾年中經歷了巨大的增長。雖然經典的現場總線仍大量存在,但它們已經過了巔峰期。流行的實時以太網協議擴展了以太網標準,可以滿足實時功能的要求。現在,TSN
    發表于 08-04 09:49 ?1.3w次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>詳解</b>什么是實時<b class='flag-5'>以太網</b>

    工業以太網與傳統以太網絡的比較

    工業以太網是指技術上與商用以太網兼容,但在產品設計上,在實時性、可靠性、環境適應性等方面滿足工業現場的需要,是繼現場總線之后發展起來,最被認同也最具發展前景的種工業通信網絡
    發表于 12-05 09:34 ?4422次閱讀

    讀懂以太網與CANoe的配置

    以太網在視頻數據傳輸、寬帶骨干網絡、IP診斷(DoIP)以及電動汽車與充電站之間的通信等領域特別有用。Ethernet.Option擴展 CANoe 以包括對以太網網絡的支持,允許使用接口硬件,例如
    的頭像 發表于 12-26 16:08 ?8883次閱讀

    以太網接口的類型及參數

    以太網接口是種用于局域組網的接口,包括:以太網電接口、以太網光接口。 為了適應網絡需求
    的頭像 發表于 02-14 09:34 ?3263次閱讀
    <b class='flag-5'>以太網</b>接口的類型及參數

    詳解車載以太網PHY芯片

    以太網物理層(PHY)芯片系以太網傳輸的物理接口收發器。應用于通信、汽車電子、消費電子、工控等眾多領域。
    發表于 06-19 17:15 ?6346次閱讀

    了解工業以太網交換機

    隨著以太網技術的迅速進步和在商用領域的廣泛應用,越來越多的產業控制設備也逐漸采用以太網并采用TCP/IP協議作為主要的通訊標準。盡管在產業控制領域應用的以太網標準與商用以太網相同,但是
    的頭像 發表于 12-20 10:41 ?1388次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>了解工業<b class='flag-5'>以太網</b>交換機

    什么是以太網,以太網有什么用

    演進和發展,成為當今最為常用的網絡技術之以太網的發展始于1973年,由美國Xerox公司的研究者發明。最初,以太網的目標是為了解決Xerox Alto辦公自動化系統之間的通信問題
    的頭像 發表于 01-22 10:59 ?4083次閱讀
    主站蜘蛛池模板: 精品无码久久久久久国产百度| 成视频高清| 啊好大好厉害好爽真骚| 精品九九视频| 亚洲AV无码久久流水呻蜜桃久色 | 3a丝袜论坛| 久草在线新是免费视频| 亚洲国产精品一区二区动图| 国产精品v欧美精品v日韩| 肉肉高潮液体高干文H| writeas雷狮直播| 欧美狂野乱码一二三四区| 99久久国产露脸精品国产吴梦梦| 恋夜秀场1234手机视频在线观看| 欲乱艳荡少寡妇全文免费| 精品国产乱码久久久久久乱码| 亚洲精品久久久久久蜜臀| 国产亚洲中文字幕视频| 亚洲精品久久久久久偷窥| 精品一区二区三区高清免费观看 | 久久精品伊人| 67194线在线精品观看| 蜜桃人妻无码AV天堂三区| 97精品国产高清在线看入口| 暖暖日本 在线 高清| 凹凸精品视频分类视频| 青青草伊人网| 国产成人精品一区二区三区视频 | 亚洲AV精品乱码专区| 好硬好湿好爽再深一点视频| 亚洲中字慕日产2020| 狂躁美女BBBBBB视频| 啊片色播电影| 天天爽夜夜爽| 久久国产一区二区三区| 99久久国产露脸精品国产麻豆| 日本美女抠逼| 国产欧美国日产在线播放| 伊人22222| 日本69xx 老师| 国产曰批试看免费视频播放免费|