色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Linux網絡子系統的DMA機制是如何的實現的

Linux閱碼場 ? 來源:Linuxer ? 2020-06-03 16:05 ? 次閱讀

我們先從計算機組成原理的層面介紹DMA,再簡單介紹Linux網絡子系統的DMA機制是如何的實現的。

一、計算機組成原理中的DMA

以往的I/O設備和主存交換信息都要經過CPU的操作。不論是最早的輪詢方式,還是我們學過的中斷方式。雖然中斷方式相比輪詢方式已經節省了大量的CPU資源。但是在處理大量的數據時,DMA相比中斷方式進一步解放了CPU。

DMA就是Direct Memory Access,意思是I/O設備直接存儲器訪問,幾乎不消耗CPU的資源。在I/O設備和主存傳遞數據的時候,CPU可以處理其他事。

1. I/O設備與主存信息傳送的控制方式

I/O設備與主存信息傳送的控制方式分為程序輪詢、中斷、DMA、RDMA等。

先用“圖1”大體上說明幾種控制方式的區別,其中黃線代表程序輪詢方式,綠線代表中斷方式,紅線代表DMA方式,黑線代表RDMA方式,藍線代表公用的線??梢钥闯鯠MA方式與程序輪詢方式還有中斷方式的區別是傳輸數據跳過了CPU,直接和主存交流。

“圖1”中的“接口”既包括實現某一功能的硬件電路,也包括相應的控制軟件,如 “DMA接口” 就是一些實現DMA機制的硬件電路和相應的控制軟件。

“DMA接口”有時也叫做“DMA控制器”(DMAC)。

圖1

上周分享“圖1”時,劉老師說在DMA方式下, DMA控制器(即DMA接口)也是需要和CPU交流的,但是圖中沒有顯示DMA控制器與CPU交流信息。但是這張圖我是按照哈工大劉宏偉老師的《計算機組成原理》第五章的內容畫出的,應該是不會有問題的。查找了相關資料,覺得兩個劉老師都沒有錯,因為這張圖強調的是數據的走向,即這里的線僅是數據線。如果要嚴格一點,把控制線和地址線也畫出來,將是“圖2”這個樣子:

圖2

這里新增了中斷方式的地址線和控制線、DMA方式的地址線和控制線。(“圖2”也是自己繪制,其理論依據參考“圖3”,這里不對“圖3”進行具體分析,因為涉及底層的硬件知識)

“圖2”對“圖1”的數據線加粗,新增細實線表示地址線,細虛線表示控制線。可以看出在中斷方式下,無論是傳輸數據、地址還是控制信息,都要經過CPU,即都要在CPU的寄存器中暫存一下,都要浪費CPU的資源;但是在DMA方式下,傳輸數據和地址時,I/O設備可以通過“DMA接口”直接與主存交流,只有傳輸控制信息時,才需要用到CPU。而傳輸控制信息占用的時間是極小的,可以忽略不計,所以可以認為DMA方式完全沒有占用CPU資源,這等價于I/O設備和CPU可以實現真正的并行工作,這比中斷方式下的并行程度要更高很多。

圖3

2. 三種方式的CPU工作效率比較

在I/O準備階段,程序輪詢方式的CPU一直在查詢等待,而中斷方式的CPU可以繼續執行現行程序,但是當I/O準備就緒,設備向CPU發出中斷請求,CPU響應以實現數據的傳輸,這個過程會占用CPU一段時間,而且這段時間比使用程序輪詢方式的CPU傳輸數據的時間還要長,因為CPU除了傳輸數據還要做一些準備工作,如把CPU寄存器中的數據都轉移到棧中。

但是DMA方式不一樣,當I/O準備就緒,設備向CPU發出DMA請求,CPU響應請求,關閉對主存的控制器,只關閉一個或者幾個存取周期,在這一小段時間內,主存和設備完成數據交換。而且在這一小段時間內,CPU并不是什么都不能做,雖然CPU不能訪問主存,即不能取指令,但是CPU的cache中已經保存了一些指令,CPU可以先執行這些指令,只要這些指令不涉及訪存,CPU和設備還是并行執行。數據傳輸完成后,DMA接口向CPU發出中斷請求,讓CPU做后續處理。大家可能會奇怪DMA接口為什么也能發出中斷請求,其實DMA接口內有一個中斷機構,見“圖3”,DMA技術其實是建立在中斷技術之上的,它包含了中斷技術。

總之,在同樣的時間內,DMA方式下CPU執行現行程序的時間最長,即CPU的效率最高。

二、Linux網絡子系統中DMA機制的實現

1. DMA機制在TCP/IP協議模型中的位置

網卡明顯是一個數據流量特別大的地方,所以特別需要DMA方式和主存交換數據。

主存的內核空間中為接收和發送數據分別建立了兩個環形緩沖區(Ring Buffer)。分別叫接受環形緩沖區(Receive Ring Buffer)和發送環形緩沖區(Send Ring Buffer),通常也叫DMA環形緩沖區。

下圖可以看到DMA機制位于TCP/IP協議模型中的位置數據鏈路層。

網卡通過DMA方式將數據發送到Receive Ring Buffer,然后Receive Ring Buffer把數據包傳給IP協議所在的網絡層,然后再由路由機制傳給TCP協議所在的傳輸層,最終傳給用戶進程所在的應用層。下一節在數據鏈路層上分析具體分析網卡是如何處理數據包的。

2. 數據鏈路層上網卡對數據包的處理

DMA 環形緩沖區建立在與處理器共享的內存中。每一個輸入數據包被放置在環形緩沖區中下一個可用緩沖區,然后發出中斷。接著驅動程序將網絡數據包傳給內核的其它部分處理,并在環形緩沖區中放置一個新的 DMA 緩沖區。

驅動程序在初始化時分配DMA緩沖區,并使用驅動程序直到停止運行。

準備工作:

系統啟動時網卡(NIC)進行初始化,在內存中騰出空間給Ring Buffer。Ring Buffer隊列每個中的每個元素Packet Descriptor指向一個sk_buff,狀態均為ready。

上圖中虛線步驟的解釋:

1.DMA 接口將網卡(NIC)接收的數據包(packet)逐個寫入 sk_buff ,被寫入數據的 sk_buff 變為 used 狀態。一個數據包可能占用多個 sk_buff , sk_buff讀寫順序遵循先入先出(FIFO)原則。

2.DMA 寫完數據之后,網卡(NIC)向網卡中斷控制器(NIC Interrupt Handler)觸發硬件中斷請求。

3.NIC driver 注冊 poll 函數。

4.poll 函數對數據進行檢查,例如將幾個 sk_buff 合并,因為可能同一個數據可能被分散放在多個 sk_buff 中。

5.poll 函數將 sk_buff 交付上層網絡棧處理。

后續處理:

poll 函數清理 sk_buff,清理 Ring Buffer 上的 Descriptor 將其指向新分配的 sk_buff 并將狀態設置為 ready。

3.源碼分析具體網卡(4.19內核)

Intel的千兆以太網卡e1000使用非常廣泛,我虛擬機上的網卡就是它。

這里就以該網卡的驅動程序為例,初步分析它是怎么建立DMA機制的。

源碼目錄及文件:

內核模塊插入函數在e1000_main.c文件中,它是加載驅動程序時調用的第一個函數。

/** * e1000_init_module - Driver Registration Routine * * e1000_init_module is the first routine called when the driver is * loaded. All it does is register with the PCI subsystem. **/ static int __init e1000_init_module(void) { int ret; pr_info("%s - version %s ", e1000_driver_string, e1000_driver_version); pr_info("%s ", e1000_copyright); ret = pci_register_driver(&e1000_driver); if (copybreak != COPYBREAK_DEFAULT) { if (copybreak == 0) pr_info("copybreak disabled "); else pr_info("copybreak enabled for " "packets <= %u bytes ", copybreak); } return ret; } module_init(e1000_init_module);

該函數所做的只是向PCI子系統注冊,這樣CPU就可以訪問網卡了,因為CPU和網卡是通過PCI總線相連的。

具體做法是,在第230行,通過pci_register_driver()函數將e1000_driver這個驅動程序注冊到PCI子系統。

e1000_driver是struct pci_driver類型的結構體,

static struct pci_driver e1000_driver = { .name = e1000_driver_name, .id_table = e1000_pci_tbl, .probe = e1000_probe, .remove = e1000_remove, #ifdef CONFIG_PM /* Power Management Hooks */ .suspend = e1000_suspend, .resume = e1000_resume, #endif .shutdown = e1000_shutdown, .err_handler = &e1000_err_handler };

e1000_driver```里面初始化了設備的名字為“e1000”,

還定義了一些操作,如插入新設備、移除設備等,還包括電源管理相關的暫停操作和喚醒操作。下面是struct pci_driver一些主要的域。

對該驅動程序稍微了解后,先跳過其他部分,直接看DMA相關代碼。在e1000_probe函數,即“插入新設備”函數中,下面這段代碼先對DMA緩沖區的大小進行檢查

如果是64位DMA地址,則把pci_using_dac標記為1,表示可以使用64位硬件,掛起32位的硬件;如果是32位DMA地址,則使用32位硬件;若不是64位也不是32位,則報錯“沒有可用的DMA配置,中止程序”。

/* there is a workaround being applied below that limits * 64-bit DMA addresses to 64-bit hardware. There are some * 32-bit adapters that Tx hang when given 64-bit DMA addresses */ pci_using_dac = 0; if ((hw->bus_type == e1000_bus_type_pcix) && !dma_set_mask_and_coherent(&pdev->dev, DMA_BIT_MASK(64))) { pci_using_dac = 1; } else { err = dma_set_mask_and_coherent(&pdev->dev, DMA_BIT_MASK(32)); if (err) { pr_err("No usable DMA config, aborting "); goto err_dma; } }

其中的函數dma_set_mask_and_coherent()用于對dma_mask和coherent_dma_mask賦值。

dma_mask表示的是該設備通過DMA方式可尋址的物理地址范圍,coherent_dma_mask表示所有設備通過DMA方式可尋址的公共的物理地址范圍,

因為不是所有的硬件設備都能夠支持64bit的地址寬度。

/include/linux/dma-mapping.h

/* * Set both the DMA mask and the coherent DMA mask to the same thing. * Note that we don't check the return value from dma_set_coherent_mask() * as the DMA API guarantees that the coherent DMA mask can be set to * the same or smaller than the streaming DMA mask. */ static inline int dma_set_mask_and_coherent(struct device *dev, u64 mask) { int rc = dma_set_mask(dev, mask); if (rc == 0) dma_set_coherent_mask(dev, mask); return rc; }

rc==0表示該設備的dma_mask賦值成功,所以可以接著對coherent_dma_mask賦同樣的值。

繼續閱讀e1000_probe函數,

if (pci_using_dac) { netdev->features |= NETIF_F_HIGHDMA; netdev->vlan_features |= NETIF_F_HIGHDMA; }

如果pci_using_dac標記為1,則當前網絡設備的features域(表示當前活動的設備功能)和vlan_features域(表示VLAN設備可繼承的功能)都賦值為NETIF_F_HIGHDMA,NETIF_F_HIGHDMA表示當前設備可以通過DMA通道訪問到高地址的內存。

因為前面分析過,pci_using_dac標記為1時,當前設備是64位的。e1000_probe函數完成了對設備的基本初始化,接下來看如何初始化接收環形緩沖區。

/** * e1000_setup_rx_resources - allocate Rx resources (Descriptors) * @adapter: board private structure * @rxdr: rx descriptor ring (for a specific queue) to setup * * Returns 0 on success, negative on failure **/ static int e1000_setup_rx_resources(struct e1000_adapter *adapter, struct e1000_rx_ring *rxdr) { ''''''' rxdr->desc = dma_alloc_coherent(&pdev->dev, rxdr->size, &rxdr->dma, GFP_KERNEL); '''''' memset(rxdr->desc, 0, rxdr->size); rxdr->next_to_clean = 0; rxdr->next_to_use = 0; rxdr->rx_skb_top = NULL; return 0; }

這里dma_alloc_coherent()的作用是申請一塊DMA可使用的內存,它的返回值是這塊內存的虛擬地址,賦值給rxdr->desc。其實這個函數還隱式的返回了物理地址,物理地址存在第三個參數中。指針rxdr指向的是struct e1000_rx_ring這個結構體,該結構體就是接收環形緩沖區。

若成功申請到DMA內存,則用memset()函數把申請的內存清零,rxdr的其他域也清零。

對于現在的多核CPU,每個CPU都有自己的接收環形緩沖區,e1000_setup_all_rx_resources()中調用e1000_setup_rx_resources(),初始化所有的接收環形緩沖區。

int e1000_setup_all_rx_resources(struct e1000_adapter *adapter) { int i, err = 0; for (i = 0; i < adapter->num_rx_queues; i++) { err = e1000_setup_rx_resources(adapter, &adapter->rx_ring[i]); if (err) { e_err(probe, "Allocation for Rx Queue %u failed ", i); for (i-- ; i >= 0; i--) e1000_free_rx_resources(adapter, &adapter->rx_ring[i]); break; } } return err; }

e1000_setup_all_rx_resources()由e1000_open()調用,也就是說只要打開該網絡設備,接收和發送環形緩沖區就會建立好。

int e1000_open(struct net_device *netdev) { struct e1000_adapter *adapter = netdev_priv(netdev); struct e1000_hw *hw = &adapter->hw; int err; /* disallow open during test */ if (test_bit(__E1000_TESTING, &adapter->flags)) return -EBUSY; netif_carrier_off(netdev); /* allocate transmit descriptors */ err = e1000_setup_all_tx_resources(adapter); if (err) goto err_setup_tx; /* allocate receive descriptors */ err = e1000_setup_all_rx_resources(adapter); if (err) goto err_setup_rx;

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 存儲器
    +關注

    關注

    38

    文章

    7525

    瀏覽量

    164159
  • Linux
    +關注

    關注

    87

    文章

    11336

    瀏覽量

    210097
  • dma
    dma
    +關注

    關注

    3

    文章

    566

    瀏覽量

    100815

原文標題:LINUX網絡子系統中DMA機制的實現

文章出處:【微信號:LinuxDev,微信公眾號:Linux閱碼場】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    深入探討Linux系統中的動態鏈接庫機制

    本文將深入探討Linux系統中的動態鏈接庫機制,這其中包括但不限于全局符號介入、延遲綁定以及地址無關代碼等內容。 引言 在軟件開發過程中,動態庫鏈接問題時常出現,這可能導致符號沖突,從而引起程序運行
    的頭像 發表于 12-18 10:06 ?174次閱讀
    深入探討<b class='flag-5'>Linux</b><b class='flag-5'>系統</b>中的動態鏈接庫<b class='flag-5'>機制</b>

    DMA是什么?詳細介紹

    DMA(Direct Memory Access)是一種允許某些硬件子系統直接訪問系統內存的技術,而無需中央處理單元(CPU)的介入。這種技術可以顯著提高數據傳輸速率,減輕CPU的負擔,并提高整體
    的頭像 發表于 11-11 10:49 ?9972次閱讀

    使用TMS320C31 DSP實現信號處理子系統以檢測激勵聲發射

    電子發燒友網站提供《使用TMS320C31 DSP實現信號處理子系統以檢測激勵聲發射.pdf》資料免費下載
    發表于 10-26 09:49 ?0次下載
    使用TMS320C31 DSP<b class='flag-5'>實現</b>信號處理<b class='flag-5'>子系統</b>以檢測激勵聲發射

    使用bq4845實現低成本RTC/NVSRAM子系統

    電子發燒友網站提供《使用bq4845實現低成本RTC/NVSRAM子系統.pdf》資料免費下載
    發表于 10-24 09:47 ?0次下載
    使用bq4845<b class='flag-5'>實現</b>低成本RTC/NVSRAM<b class='flag-5'>子系統</b>

    使用bq4845實現低成本RTC/NVSRAM子系統

    電子發燒友網站提供《使用bq4845實現低成本RTC/NVSRAM子系統.pdf》資料免費下載
    發表于 10-24 09:46 ?0次下載
    使用bq4845<b class='flag-5'>實現</b>低成本RTC/NVSRAM<b class='flag-5'>子系統</b>

    詳解linux內核的uevent機制

    linux內核中,uevent機制是一種內核和用戶空間通信的機制,用于通知用戶空間應用程序各種硬件更改或其他事件,比如插入或移除硬件設備(如USB驅動器或網絡接口)。uevent表示
    的頭像 發表于 09-29 17:01 ?886次閱讀

    深度解析linux時鐘子系統

    linux內核中實現了一個CLK子系統,用于對上層提供各模塊(例如需要時鐘信號的外設,USB等)的時鐘驅動接口,對下層提供具體SOC的時鐘操作細節。
    的頭像 發表于 09-29 16:46 ?613次閱讀
    深度解析<b class='flag-5'>linux</b>時鐘<b class='flag-5'>子系統</b>

    Simplelink? Wi-Fi? CC3x3x網絡子系統電源管理

    電子發燒友網站提供《Simplelink? Wi-Fi? CC3x3x網絡子系統電源管理.pdf》資料免費下載
    發表于 09-23 11:17 ?0次下載
    Simplelink? Wi-Fi? CC3x3x<b class='flag-5'>網絡子系統</b>電源管理

    Linux網絡協議棧的實現

    網絡協議棧是操作系統核心的一個重要組成部分,負責管理網絡通信中的數據包處理。在 Linux 操作系統中,
    的頭像 發表于 09-10 09:51 ?355次閱讀
    <b class='flag-5'>Linux</b><b class='flag-5'>網絡</b>協議棧的<b class='flag-5'>實現</b>

    Linux內核中的頁面分配機制

    Linux內核中是如何分配出頁面的,如果我們站在CPU的角度去看這個問題,CPU能分配出來的頁面是以物理頁面為單位的。也就是我們計算機中常講的分頁機制。本文就看下Linux內核是如何管理,釋放和分配這些物理頁面的。
    的頭像 發表于 08-07 15:51 ?330次閱讀
    <b class='flag-5'>Linux</b>內核中的頁面分配<b class='flag-5'>機制</b>

    linux--LED子系統一文讀懂

    Linux內核中,LED子系統扮演著控制LED燈的核心角色,它通過一套規范化的驅動架構,簡化了LED驅動程序的開發流程,讓開發者能夠更專注于功能實現而非硬件層面的復雜性。
    的頭像 發表于 08-02 16:09 ?2671次閱讀
    <b class='flag-5'>linux</b>--LED<b class='flag-5'>子系統</b>一文讀懂

    Linux DMA子系統驅動開發

    Streaming DMA在訪問內存地址時經過cache,是non-coherence設備,通常采用streaming mapping的API進行內存申請,在單次DMA傳輸時進行map,在傳輸完成后進行unmap;
    發表于 04-07 14:38 ?954次閱讀
    <b class='flag-5'>Linux</b> <b class='flag-5'>DMA</b><b class='flag-5'>子系統</b>驅動開發

    8路SDI/HDMI/MIPI/PCIe-DMA音視頻采集,V4L2驅動應用介紹

    ,在上位機可以使用標準的Linux V4L2視頻驅動,實現多路視頻信號的采集和顯示工作。2 子系統結構 3功能特性1.支持多種視頻接口:SDI、Display Port(DP)、HDMI、DVI、VGA
    發表于 03-13 13:59

    一文解析谷歌Falcon以太網硬件傳輸協議

    基于微內核的網絡子系統,可以通過模塊進行擴展,通過模塊可以添加高級功能,例如網絡虛擬化、流量限制和消息傳遞功能。
    發表于 03-06 11:37 ?2055次閱讀
    一文解析谷歌Falcon以太網硬件傳輸協議

    V4L2視頻采集,基于PCIe的多路視頻采集與顯示子系統

    實時訪問視頻顯示隊列,按照顯示定時脈沖輸出視頻幀。在外部顯示定時模式和超帶寬顯示情況下,支持顯示復制幀操作,后續視頻可以正常顯示。 對于多路視頻采集與顯示子系統,在上位機可以使用標準的Linux V4L2視頻驅動,實現多路視頻
    的頭像 發表于 02-22 20:05 ?1023次閱讀
    V4L2視頻采集,基于PCIe的多路視頻采集與顯示<b class='flag-5'>子系統</b>
    主站蜘蛛池模板: 国产精品久久久久成人免费| 亚洲精品色播一区二区 | 午夜影院和视费x看| 在线看免费毛片| 怪物高h粗暴无尽| 芒果视频看片在线观看| bbwxxxx交女警| 国产亚洲精品久久久久久入口| 年轻的老师5理伦片| 亚洲精品久久区二区三区蜜桃臀| gayxxxxgay呻吟受日本| 久久麻豆国产国产AV| 无人视频在线观看免费播放影院| 2022久久精品国产色蜜蜜麻豆| 国产综合欧美区在线| 日美一级毛片| bl(高h)文| 美女pk精子2小游戏| 亚洲免费大全| 国产精品亚洲精品日韩电影| 日本超A大片在线观看| 7723手机游戏破解版下载| 后入式啪gif动态图| 四房播播最新地址| xxxxhd17欧美老师| 阿离被扒开双腿疯狂输出| 考好老师让你做一次H| 亚洲一区二区三区91| 国产亚洲精品久久久久久禁果TV| 无敌在线视频观看免费| 调教日本美女| 色欲久久精品AV无码| 儿子好妈妈的HD3中字抢劫| 欧美香蕉大胸在线视频观看| 99爱视频在线观看| 年轻的老师5理伦片| caoporn 免费视频| 欧美亚洲日本日韩在线| 99久久就热视频精品草| 欧美xxxxb| 大香伊人久久|