傳輸控制協議(tcp)是一種最初針對低速地面鏈路而設計的傳輸層協議。然而,隨著高速傳輸介質和復雜的訪問機制的發展,用純軟件方式實現tcp需要強大的計算和存儲能力。
近年來,網絡速度、cpu和內存的速度呈爆炸式增長。由于以太網速度的增長速度遠遠大于cpu或內存,所以目前的網絡性能仍然主要受制于內存與cpu速度。
tcp卸載是一種用于加速tcp/ip連接的技術,它克服了上述局限性,將復雜的tcp處理從主機cpu轉移到專用的tcp加速器上。通常,用于加速的tcp卸載引擎(toe)是一個主機cpu共址的專用子系統??蛇_到同樣目標的一種可選機制,是將復雜的tcp/ip處理轉移至用高速鏈路與tcp服務器連接的網絡處理器(np)上(一種專用的可編程硬件設備)。
這種可選機制采用的網絡處理器不但具備通用處理器(gpp)的低成本與高靈活性,而且還具有定制硅芯片解決方案的速度與可擴展性。此外,np還可減輕tcp服務器上需要大量內存和cpu資源的處理負擔。它還提供可擴展性極高的解決方案,尤其是存在原有設備或對成本敏感的設備的情況下。
防御網絡通常與長延遲衛星鏈路、易出錯的無線信道一起,構成高性能服務器與網絡。衛星鏈路是降低整體性能的鏈路中最薄弱的環節。采用這種可選機制可使帶有toe的np連接至薄弱部分,從而讓np-toe能消除長延遲和信道錯誤的不利影響,并提高網絡整體性能。
對于成本與尺寸受限的低端企業級產品而言,通過在中央網絡單元中引入toe來解決內存/cpu瓶頸是一種具有可擴展性和成本效益的解決方案。與提高主機自身的性能(如使用鍵盤、顯示器和鼠標——kvm交換機)相比,該方法尤其具有優勢。
圖1列舉了一種部署方案,其中遠程鍵盤、監視器和鼠標控制多臺與基于ip的kvm(kvm-over-ip)交換機相連的遠程托管服務器。遠程控制計算機的鼠標與鍵盤事件通過因特網從kvm交換機傳輸到服務器。服務器通過kvm交換機將壓縮的監視器數據發送至遠程計算機。帶有toe的np使kvm交換機能夠將tcp的處理負擔轉移到np,從而簡化了kvm交換機硬件。
圖1:帶有toe的np提升網絡性能的部署實例。
采用tcp接合技術的toe
tcp卸載可在企業tcp主機和遠程np兩種網絡實體上進行,它是通過利用分離的tcp連接(也稱為tcp接合)而得以實現的。tcp接合是一種著名的tcp性能增強技術。在tcp接合中,兩個獨立的tcp連接可以跨接一次會話:一個從客戶端到np,另一個從np到服務器。圖2說明了采用tcp接合技術的toe的基本操作步驟。
服務器發送的數據由np在本地確認,從而減少服務器的緩沖需求并且加快擁塞窗口的擴大。np在遠端(客戶端)的確認(ack)到達之前緩沖數據。在未收到確認通知的情況,np執行定時器管理以向遠端重發tcp段。利用本地確認還可以避免tcp服務器受np和客戶端之間網絡擁塞和延遲過長的影響。這可以減輕服務器的內存負擔。
np還可以為服務器向客戶端發送的數據(包括校驗和計算)執行可選的網絡地址轉換(nat)。盡管上述功能需要大量計算并且給gpp帶來繁重負擔,但np非常適合處理此類操作。
與路由等傳統np應用相比,tcp卸載應用需要具備包間依賴性和基于連接的狀態機。此外,這種應用還要處理傳輸層功能,而這超越了由np執行的傳統鏈路層和網絡層的處理能力。
tcp處理過程中主要有兩個復雜之處。緩沖器管理包括對擁塞網絡中未確認段、亂序段和延遲段進行存儲。定時器管理包括估算重發超時(rto)估算以及觸發未確認段的重發。
在高性能服務器或網絡與長延遲無線和/或窄帶網絡一起運行的情況下(防御和移動網絡大多如此),這種機制非常有用。在這種情況下,由于立即確認使可察覺的延遲更短,所以np上的tcp卸載功能可縮短慢啟動階段。請注意,當處理任務很輕時,慢啟動階段決定了應用性能。
另外,tcp擁塞控制針對有線部分的擁塞以及易錯無線信道的性能下降而調整。由于錯誤恢復功能受限于np和客戶端,所以np上的tcp卸載可以防止服務器中的窗口崩潰。這可以提高整體吞吐量。
圖2:從服務器到客戶端的數據處理框圖。
利用網絡處理器實現帶toe的tcp接合技術
在開發執行被提議的替代機制的概念原型中,我們采用杰爾app340處理器(圖3)。app3xx系列np具有2gbps的吞吐能力。該器件包含分類器、由調度程序、緩沖器管理器與流編輯器(sed)組成的流量管理器、狀態引擎以及片上控制處理器(即嵌入式主機)。嵌入式主機處理低速通道(控制與管理),器件的其余部分則處理快速通道或數據管道。
分類器用于識別連接及其狀態;狀態引擎讓tcp狀態變量能被np上的各種功能模塊訪問;流量管理器運行tcp擁塞控制協議,并執行調度決策;sed則被用于執行序號處理及網絡地址轉換(nat)的穿透(traversal)。
app340允許流量整形功能模塊控制每個隊列的數據包調度。np為每個數據流維護多個目的隊列,包括到客戶端的主要傳輸、到客戶端的數據包重發以及到服務器的傳輸。
app340支持分級調度,這樣就可以利用輔助隊列在每個目的隊列的同一級別傳送控制信息。這些控制數據包由數據包生成引擎(pge)根據狀態機在內部生成。它們被用于觸發調度機制,例如在調度隊列中保持數據包,并只在tcp狀態機需要時釋放數據包。
這種利用分級調度架構控制tcp段調度的能力,以及保持包間狀態依賴性的能力使app340架構非常適合tcp處理。
圖3:從客戶端到服務器的數據處理框圖。
tcp連接的建立
在數據包到達np端口時,分類器模塊根據tcp端口號和ip地址確定數據包流。如果數據包流不存在,則將數據包發送到嵌入式主機以建立連接。
一旦收到與tcp協議的三方握手(syn、syn-ack和ack)相對應的初始數據包時,主機解析tcp選項并獲取相應參數,如序列號(sn)和最大段長,并將它們轉發到狀態引擎和sed。另外,它還更新分類器中的查找樹,從而關聯數據流標識符與tcp連接。
然后,將數據包傳回分類器,以便重新插入數據包流。外發的tcp握手數據包接受nat穿透處理,并且忽略其它toe功能。類似地,主機處理連接終止。分類器解析fin字段并將數據包發至主機。
來自服務器的tcp數據流
當用于已建立的數據流的tcp數據段進入分類器時,利用查找樹可獲取流標識符。
app340是一種基于模塊的處理器。它采用兩階段分類處理,第一階段處理單個模塊。第二階段處理重組后的協議數據單元。如果數據段到達時是亂序的,則將其保留在分類器中firstpass重排序緩沖器中,直到有序段到達。
對于有序段,則檢查tcp狀態,以了解當前滑動窗口大小(cwnd)、接收器通知窗口(rwnd)、np的內存限制以及正在傳輸的數據包大小是否允許傳輸該數據包。如果數據包可以傳輸,則轉發到sed進行nat轉換并發送到遠端客戶端。流量整形器(ts)的轉發緩沖器中保存一個副本,另一個副本被發送到sed,用于生成一個立即本地確認。sed利用傳來的tcp/ip報頭、最末ack的sn和最后收到的字節數生成本地ack。
如果tcp滑動窗口被占滿,則ts停止調度數據包。數據包在停止狀態結束之前一直有效保存在ts中(圖4)。
來自客戶端的tcp數據流
當ack到達分類器時,分類器提取確認號并將其轉發至狀態引擎。狀態引擎更新cwnd,以反映tcp流的慢速啟動或擁塞避免階段。該引擎還更新rwnd、未確認數據的大小以及tcp滑動窗口的占滿狀態。
生成一個觸發信號發送到ts,以從重發隊列中刪除已確認的數據包。ts調度所有來自伙伴(partner)控制隊列確認數據包和相關數據包,然后在sed將其清除。若tcp滑動窗口先前已被占滿,則生成觸發信號發送到ts,以恢復對tcp數據段的處理(圖5)。然后,該確認在np上結束。
如果客戶端數據包帶有背負(piggybacked)數據,則按照上述方式更新狀態機。然后修改報頭中的確認號,以反映最近生成的本地確認號,并將它轉發給服務器。另外,在狀態引擎中更新下一個來自客戶端的預期sn,以便將該sn用作隨后本地確認的sn。
重發與重發超時(rto)估算
對于重發緩沖器中的每個數據包,內部pge生成的伙伴控制隊列保留該段的傳輸時間。當一個確認到達時,按確認到達時間與傳輸時間差計算往返時間,然后按照ietfrfc2988推薦標準估算重發超時(rto)。
如果數據包處于重發序列之中,則pge生成由當前時間、重發時間或者當前時間外加rto組成的控制數據包。
對pge進行編程,以生成周期性的觸發信號。每次進行此操作時,ts都會檢查重發時間。每個帶有過期定時器的數據包被調度發送到sed,同時相應的控制數據包也被清除。重復此操作,直到處理完所有帶有過期定時器的數據包。回傳并存儲每個重發段的副本,以用于下一次重發。ietfrfc2001規定的快速重發算法由pge實現,一旦收到來自客戶端的三個重復確認,它便生成一個重發觸發信號。
基于np的toe使服務器性能可以不依賴于np和客戶端之間的網絡特征。其性能反而可以反映np和服務器之間的鏈路特征。此外,服務器的內存需求仍獨立于網絡擁塞和客戶端網絡的往返時延。
我們可以看到,在遠程np采用tcp卸載機制可以充分提高低端設備的tcp性能,而且服務器可以免受與各種客戶端環境相關的資源需求變化的影響。另外,具有很長無線組件的高性能客戶端網絡可通過nptoe減輕擁塞及鏈路損失,從而顯著改善用戶體驗。
責任編輯:gt
-
處理器
+關注
關注
68文章
19293瀏覽量
229939 -
監視器
+關注
關注
1文章
780瀏覽量
33146 -
服務器
+關注
關注
12文章
9184瀏覽量
85482
發布評論請先 登錄
相關推薦
評論