色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一文詳細了解高速存儲接口NVMe

中科院半導體所 ? 來源:軟硬件融合 ? 作者:Chaobowx ? 2022-03-21 16:55 ? 次閱讀

編者按

網絡側現在還沒有形成標準的接口。Virtio-net因為軟件虛擬化的流行所以標準,但其性能較差;AWS有自己的ENA/EFA接口,NVIDIA提供的是NV-SRIOV自定義接口,以及基于此封裝的Virtio-net接口。 在存儲側,業界形成了“偉大”的共識:NVMe標準接口,兼顧了標準化和高性能。與此同時,從Virtio-blk逐步切換到NVMe在業界得到了眾多的認可。

高速存儲接口NVMe

跟網絡接口相比,存儲的接口標準化程度相對較高。NVMe是本地高性能存儲主流的接口標準,同時基于NVMe擴展的NVMeoF是高性能網絡存儲主要的接口及整體解決方案標準。

1 NVMe概述

NVMe(Non-Volatile Memory Express)是經過優化的、高性能的、可擴展的主機控制器接口,專為非易失性存儲器(NVM)技術而設計。NVMe解決了如下一些性能問題:

帶寬:通過支持PCIe和諸如RDMA和光纖之類的通道,NVMe可以支持比SATASAS高很多的帶寬。

IOPS:例如,串行ATA可能的最大IOPS為20萬,而NVMe設備已被證明超過100萬IOPS。

延遲:NVM以及未來的存儲技術具有一微秒以內的訪問延遲,需要一種更簡潔的軟件協議,能夠實現包括軟件堆棧在內的不超過10毫秒的端到端延遲。

NVMe協議支持多個深度隊列,這是對傳統SAS和SATA協議的改進。典型的SAS設備在單個隊列中最多支持256個命令,而SATA設備最多支持32個命令。這些隊列深度對于傳統的硬盤驅動器技術已經足夠,但不能充分利用NVM技術的性能。

相比之下,圖1所示的NVMe多隊列,每個隊列支持64K命令,最多支持64K隊列。這些隊列的設計使得IO命令和對命令的處理不僅可以在同一處理器內核上運行,也可以充分利用多核處理器的并行處理能力。每個應用程序或線程可以有自己的獨立隊列,因此不需要IO鎖定。NVMe還支持MSI-X和中斷控制,避免了CPU中斷處理的瓶頸,實現了系統擴展的可伸縮性。NVMe采用簡化的命令集,相比SAS或SATA,NVMe命令集使用的處理IO請求的指令數量減少了一半,從而在單位CPU指令周期內可以提供更高的IOPS,并且降低主機中IO軟件堆棧的處理延遲。

一文詳細了解高速存儲接口NVMe

圖1 NVMe多隊列

2 NVMe寄存器

NVMe(Over PCIe)寄存器主要分為兩類,一類是PCIe配置空間寄存器,一類是NVMe控制器相關的寄存器。

a.PCIe配置空間和功能

NVMe PCIe總線寄存器如表1所示,NVMe跟主機CPU的接口主要是基于PCIe總線,使用PCIe的Config和Capability機制。包括PCI/PCIe頭、PCI功能和PCIe擴展功能。

表1 NVMe PCIe配置空間和功能

起始 結束 名稱 類型
00h 3Fh PCI/PCIe頭
PMCAP PMCAP+7h PCI功耗管理(Power Management)功能 PCI功能
MSICAP MSICAP+9h MSI(Message Signaled Interrupt)功能 PCI功能
MSIXCAP MSIXCAP+Bh MSI-X(MSI eXtension,MSI擴展)功能 PCI功能
PXCAP PXCAP+29h PCIe功能 PCI功能
AERCAP AERCAP+47h AER(Advanced Error Reporting)功能 PCIe擴展功能

b.NVMe控制器寄存器

NVMe控制器寄存器位于MLBAR/MUBAR寄存器(PCI BAR0和BAR1)中,這些寄存器應映射到支持順序訪問和可變訪問寬度的內存空間。NVMe 1.3d版本的控制器寄存器列表如表2所示。

表2 NVMe 1.3d版本的控制器寄存器列表

起始 結束 縮寫 描述
0h 7h CAP 控制功能
8h Bh VS 版本
Ch Fh INTMS 中斷屏蔽設置
10h 13h INTMC 中斷屏蔽清楚
14h 17h CC 控制器配置
18h 1Bh Reserved 保留
1Ch 1Fh CSTS 控制器狀態
20h 23h NSSR NVM子系統重置(可選)
24h 27h AQA 管理隊列屬性
28h 2Fh ASQ 管理提交隊列基地址
30h 37h ACQ 管理完成隊列基地址
38h 3Bh CMBLOC 控制器存儲緩沖位置(可選)
3Ch 3Fh CMBSZ 控制器存儲緩沖大小(可選)
40h 43h BPINFO 引導分區信息(可選)
44h 47h BPRSEL 引導分區讀選擇(可選)
48h 4Fh BPMBL 引導分區存儲緩沖位置(可選)
50h EFFh Reserved 保留
F00h FFFh Reserved 命令設置具體的寄存器
1000h 1003h SQ0TDBL 管理SQ0尾Db
1000h + (1 * (4 << CAP.DSTRD)) 1003h + (1 * (4 << CAP.DSTRD)) CQ0HDBL 管理CQ0頭Db
1000h + (2 * (4 << CAP.DSTRD)) 1003h + (2 * (4 << CAP.DSTRD)) SQ1TDBL SQ1尾Db
1000h + (3 * (4 << CAP.DSTRD)) 1003h + (3 * (4 << CAP.DSTRD)) CQ1HDBL CQ1頭Db
1000h+ (2y * (4 << CAP.DSTRD)) 1003h + (2y * (4 << CAP.DSTRD)) SQyTDBL SQy尾Db
1000h + ((2y + 1) * (4 << CAP.DSTRD)) 1003h + ((2y + 1) * (4 << CAP.DSTRD)) CQyHDBL CQy頭Db
供應商定制寄存器(可選)
SQ:Submission Queue,提交隊列;CQ:Completion Queue,完成隊列;Db:Doorbell,門鈴。

3 NVMe隊列

NVMe的隊列是經典的環形隊列結構,通過提交/完成隊列對來實現隊列的傳輸交互。

a.隊列概述

NVMe使用的是經典的循環隊列結構來傳遞消息(例如,傳遞命令和命令完成通知)。隊列可以映射到任何PCIe可訪問的內存中,通常是放在主機內存。

如圖2,隊列是固定大小的,通過Tail和Head來分別指向寫入和讀取的指針。像通常的隊列數據結構一樣,隊列實際可使用的大小是隊列大小減1,并且用Head等于Tail指示隊列空,用Head等于(Tail+1)除以隊列大小的余數來指示隊列滿。

一文詳細了解高速存儲接口NVMe

圖2 NVMe隊列結構

如上一節的圖1,根據用途,NVMe隊列有兩類:管理隊列和IO隊列;根據傳輸方向有兩類:提交隊列和完成隊列。具體介紹見表3。

表3 NVMe隊列類型

管理 IO
提交 用于提交管理命令,最大4K項;
用于配置控制器和IO隊列等;
從主機側到控制器側。
用于傳輸IO命令,最大64K項;
用于提交IO操作命令;
從主機側到控制器側。
完成 管理命令的完成確認,最大4K項;
從控制器側到主機側;
獨立的MSI-X中斷處理。
IO命令的完成確認,最大64K項;
從控制器側到主機側;
獨立的MSI-X中斷處理。

b.隊列處理流程

NVMe的驅動和設備交互跟Virtio不同:Virtio是在通過一個隊列完成雙向通知交互;而NVMe則采用提交隊列和完成隊列配合完成雙向交互的方式。

如圖3,NVMe隊列處理流程如下(其中主機為軟件驅動,控制器為硬件設備):

(1)主機寫命令到提交隊列項中。

(2)主機寫DB(Doorbell)寄存器,通知控制器有新命令待處理。

(3)控制器從內存中的提交隊列中讀取命令。

(4)控制器執行命令。

(5)控制器更新完成隊列,表示當前的SQ項已經處理。

(6)控制器發MSI-x中斷到主機CPU。

(7)主機處理完成隊列,同步更新提交隊列中的已處理項。

(8)主機寫完成隊列Db到控制器,告知完成隊列項已釋放。

一文詳細了解高速存儲接口NVMe

圖3 NVMe隊列處理流程

4 NVMe命令結構

我們通過如下一些概念來理解NVMe命令結構:

隊列項的數據格式。NVMe的提交命令固定64字節,完成命令固定16字節。

命令。NVMe命令分為Admin和IO兩類。

NVMe的數據塊組織方式有PRP和SGL兩種。

a.隊列項的數據格式

提交隊列和完成隊列,組成隊列對,協作完成NVMe驅動和設備之間的命令傳輸。提交隊列每一項64字節固定大小,完成隊列每一項16字節固定大小。

提交隊列的數據格式如圖4所示。NVMe提交隊列項的數據格式屬性如下:

Opcode:命令操作碼

FUSE:熔合兩個命令為一條命令

PSDT:PRP或SGL數據傳輸

Command Identifier:命令ID

Namespace Identifier:命名空間ID

Metadata Pointer:元數據指針

PRP entry 1/2:物理區域頁項,對應的由PRP和PRP列表

SGL:散列聚合列表

一文詳細了解高速存儲接口NVMe

圖4 提交隊列項的數據格式

完成隊列的數據格式如圖5所示。

一文詳細了解高速存儲接口NVMe

圖5 完成隊列項的數據格式

NVMe完成隊列的數據格式屬性如下:

SQ Header pointer:SQ頭指針

SQ Identifier:SQ ID

Command Identifier:命令ID

P:相位標志phase tag,完成隊列沒有head/tail交互,通過相位標志實現完成隊列項的釋放

Status Field:狀態域

b.NVMe命令

NVMe管理類的命令如表4所示。

表4 NVMe管理命令列表

命令 必選或可選 類別
創建IO SQ 必選 隊列管理
刪除IO SQ 必選
創建IO CQ 必選
刪除IO CQ 必選
鑒別 必選 配置
獲取特征 必選
設置特征 必選
獲取日志頁 必選 狀態報告
異步事件請求 必選
中止 必選 中止命令
固件鏡像下載 可選 固件更新和管理
固件可用 可選
IO命令集定制命令 可選 IO命令集定制
供應商定制命令 可選 供應商定制

NVMe IO類命令如表5所示。

表5 NVMe IO類命令列表

命令 必選或可選 類別
必選 必選的數據命令
必選
清洗 必選
不可改正的寫 可選 可選的數據命令
寫0 可選
比較 可選
數據集管理 可選 數據提示
預約獲取 可選 預約命令
預約寄存器 可選
預約釋放 可選
預約報告 可選
供應商專用命令 可選 供應商專用

c.物理區域頁PRP

PRP本質是一個鏈表,鏈表中的每一個指針都指向一個不超過頁大小的數據塊。PRP為8字節(64bits)固定大小,PRPList則最多可以占滿一整個頁。

PRP1和PRP2的格式如圖6(a)所示。如果是首個PRP,則Offset(偏移量)可能是非零的數據,另外,偏移量是32bits對齊的(即末尾兩位為0)。如圖6(b)所示,在PRP列表中的所有PRP項的偏移量都為0,也即是PRP指針指向頁面起始地址。

一文詳細了解高速存儲接口NVMe

圖6 PRP和PRP列表的格式

如圖7(a)所示,當數據只有一個或兩個頁面的時候,就不需要使用PRP列表數據結構,直接PRP1和PRP2指向內存頁面。當一個命令指向的數據超過兩個內存頁面的時候,就需要使用PRP列表,圖7(b)所顯式的為使用PRP列表的數據結構。

一文詳細了解高速存儲接口NVMe

(a) 范例1:PRP直接指向內存頁面

一文詳細了解高速存儲接口NVMe

(b) 范例2:PRP列表指針,指向PRP列表,再指向內存頁面

圖7 PRP數據結構范例

d.散列聚合列表SGL

PRP每個鏈表指針最多指向一個頁大小的數據塊,即使若干個頁在內存連續放置,PRP也需要對應的多個PRP項。為了減少元數據規模,SGL不限制指針指向數據塊的大小,這樣連續的若干個頁的數據,只需要一個SGL項就可以標識。

NVMe中SGL的長度為16字節固定長度,其格式如圖8(a)所示,在最高的第15字節SGL描述符類型域和子類型域標識不同類型的SGL描述符,根據不同的描述符,字節14-0的格式各有不同。SGL描述符類型如圖8(b)所示。

一文詳細了解高速存儲接口NVMe

圖8 NVMe SGL數據格式

如圖9,NVMe SGL的數據結構是鏈表形式,SQ中的首個SGL段只有1項,為指向下一個SGL段的指針。下一個SGL段包含若干SGL數據塊描述符,SGL段的最后的一個SGL描述符為另一個SGL段指針,指向下一個SGL段。根據傳輸數據大小,在最后一個SGL 段中,所有的SGL描述符都是SGL數據塊描述符。

PRP只能指向單個內存頁,這樣,當要傳輸的數據塊非常大的時候,就需要非常多的PRP項。而SGL可以指向不同大小的數據塊,處于連續內存區域的多個數據塊只需要一個SGL描述符就可以標識。因此,一般情況下,SGL比PRP更高效,更節省描述符資源。

一文詳細了解高速存儲接口NVMe

圖9 NVMe SGL數據結構范例

5 網絡存儲接口NVMeoF

NVMeoF(NVMe over Fabrics)定義了一種通用架構,該架構支持一系列基于NVMe塊存儲協議的存儲網絡系統。包括從前端存儲接口到后端擴展的大量NVMe設備或NVMe子系統,也包括訪問遠程NVMe設備和NVMe子系統所需的網絡傳輸系統。

如圖10所示,NVMeoF支持以太網、光纖和InfiniBand等不同的網絡傳輸介質。基于RDMA的NVMeoF,使用的是InfiniBand、RoCEv1/v2或iWARP。NVMeoF的主要目標是提供與NVMe設備的低延遲遠程連接,與服務器本地NVMe設備相比,增加的延遲不超過10μs。

一文詳細了解高速存儲接口NVMe

圖10 NVMe over Fabrics支持的網絡傳輸介質

利用NVMeoF技術,可以輕松構建由許多NVMe設備組成的存儲系統,它通過基于RDMA或光纖網絡實現的NVMeoF,構成了完整的NVMe端到端存儲解決方案。NVMeoF系統可以提供非常高的訪問性能,同時保持非常低的訪問延遲。

為了遠距離傳輸NVMe協議,理想的基礎網絡結構應具有以下特征:

可靠的基于信用的流量控制和傳輸機制。需要網絡能支持自動流量調節,從而提供可靠的網絡連接。基于信用的流量控制是光纖、InfiniBand和PCIe原生支持的功能。

優化的NVMe客戶端。客戶端軟件能夠直接與傳輸網絡之間發送和接收NVMe命令,不需要使用諸如SCSI之類比較低效的轉換層。

低延遲的網絡。網絡應該是針對低延遲優化過的,網絡路徑(包括交換機)端到端延遲不能超過10 μs。

能夠減少延遲和CPU使用率的硬件接口卡。接口卡支持直接內存注冊給用戶模式的應用程序使用,以便數據傳輸可以直接從應用程序傳遞到接口卡。

網絡擴展。網絡能夠支持擴展到成千上萬個設備,甚至更多。

多主機支持。該網絡應能夠支持多個主機同時發送和接收命令。這也適用于多個存儲子系統。

端口支持。主機服務器和存儲系統應能夠同時支持多個端口。

多路徑支持。該網絡應能夠同時支持任何NVMe主機發起端和任何NVMe存儲目標端之間的多個路徑。

最多可達64K的獨立IO隊列以及IO隊列固有的并行性可以很好地與上述特征一起使用。每個IO隊列可同時支持64K個命令。另外,NVMe命令數量非常少,因此在各種不同的網絡環境中實現起來也非常的簡單高效。

NVMeoF協議大約90%與NVMe協議相同。這包括NVMe命名空間、IO和管理命令、寄存器和屬性、電源狀態、異步事件等。兩者的差異對比如表6所示。

表6 NVMe和NVMeoF對比

差異性 NVMe(PCIe) NVMeoF
識別碼 BDF信息 NVMe合格名稱(NQN)
設備發現 總線枚舉 發現和連接命令
排隊 基于內存 基于消息
數據傳輸 PRP或SGL 僅SGL,添加了密鑰

NVMe基于分層的設計:如果把NVMe傳輸映射到內存訪問和PCIe總線,則是通常所理解的NVMe;如果把NVMe傳輸映射到RoCE等網絡接口,基于消息傳輸和內存訪問,則是NVMeoF。

如圖11,在本地NVMe中,NVMe命令和響應映射到主機中的共享內存,可以通過PCIe接口訪問。但是,NVMeoF是基于節點之間發送和接收消息的概念構建的。NVMeoF通過把NVMe命令和響應封裝到消息,每個消息包含一個或多個NVMe命令或響應。

一文詳細了解高速存儲接口NVMe

圖11 NVMeoF堆棧

對于NVMeoF來說,多隊列特征是支持的。通過使用類似NVMe的提交隊列和完成隊列機制來支持NVMe多隊列模型,但是將命令封裝在基于消息的傳輸中。NVMe IO隊列對(提交和完成)是為多核CPU設計的,這種低延遲的設計在NVMeoF也同樣支持。

當通過網絡將復雜的消息發送到遠端NVMe設備時,允許將多個小消息合并成一條消息發送,從而提高傳輸效率并減少延遲。如圖12,一條消息封裝了提交隊列項或完成隊列項、多個SGL、多組數據以及元數據等。每一項的內容與本地NVMe協議相同,但是封裝是將它們打包在一起,用以提高傳輸效率。

一文詳細了解高速存儲接口NVMe

圖12 NVMeoF的命令和響應封裝

6 NVMe及NVMeoF總結

NVMe是為了高速非易失性存儲定制的存儲接口訪問協議,定向優化了存儲的主要性能指標:帶寬、延遲和IOPS。NVMe最重要的特征體現在:

面向高速存儲場景定制:NVMe是專門面向高速存儲場景定制的協議,因此充分考慮了塊存儲的特點,重點解決存儲性能的關鍵問題。

多隊列支持:多隊列不僅僅充分利用了硬件的并行處理能力,同時,也充分的利用了多核系統多線程并行的特點,最大化的優化了NVMe的性能。

標準化:NVMe是得到廣泛應用的PCIe SSD接口標準,各大主流操作系統支持統一的標準NVMe驅動。

NVMeoF集成現有的NVMe和高速低延遲傳輸網絡的技術,提供一整套整合的遠程高速存儲系統解決方案,非常適應于大規模存儲集群的應用場景。

原文標題:高速的、標準化的存儲接口NVMe

文章出處:【微信公眾號:中科院半導體所】歡迎添加關注!文章轉載請注明出處。

審核編輯:湯梓紅

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 存儲器
    +關注

    關注

    38

    文章

    7527

    瀏覽量

    164169
  • 接口
    +關注

    關注

    33

    文章

    8687

    瀏覽量

    151674
  • 設備
    +關注

    關注

    2

    文章

    4539

    瀏覽量

    70798

原文標題:高速的、標準化的存儲接口NVMe

文章出處:【微信號:bdtdsj,微信公眾號:中科院半導體所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    詳細了解JTAG接口

    在FPGA研發及學習過程中,有個關鍵步驟就是下板實現,做硬件“硬現”很重要,般來說用JTAG口比較常見些,因此相信肯定有些大俠遇到過JTAG口失靈或者損壞無法使用的事情。最近我就遇到了這類事情
    發表于 07-20 09:15 ?1.2w次閱讀

    Xilinx FPGA NVMe Host Controller IP,NVMe主機控制器

    NVMe Host Controller IP1介紹NVMe Host Controller IP可以連接高速存儲PCIe SSD,無需CPU和外部
    發表于 02-21 10:16

    在Xilinx ZCU102評估套件上啟用NVMe SSD接口

    要求具有超高速性能的NVMe SSD存儲的應用,建議使用此解決方案。圖3:NVMeG3-IP框圖。(圖片來源:Design Gateway)NVMeG3-IP的功能NVMeG3-IP具有許多功能,其中
    發表于 09-03 16:07

    詳細了解下ups的相關計算

    關于ups方面的計算有很多,ups無論是接空開,還是連接電纜,以及選擇電池,都可能需要計算它的電流或功率等,那么今天我們來詳細了解下ups的相關計算。、UPS電源及電流、高頻ups與工頻ups
    發表于 11-16 09:08

    詳細了解下STM32F1的具體電路參數

    最近筆者在使用STM32時,需要詳細了解下F1的具體電路參數。于是查看其官方數據手冊,結果記錄如下。絕對最大額度值般工作條件表中的FT指5V 耐壓。可以在引腳定義表格中看到。I/O端口特性(邏輯電平)在最后
    發表于 01-18 07:07

    基于 NVMe 接口的帶 exFAT 文件系統的高速存儲 FPGA IP 核演示

    和朋友開發了幾個基于 FPGA 的高速存儲 IP 核,考慮到工業相機等應用場合需要有文件系統以方便做數據管理,所以將 NVMe 和 exFAT 兩大IP核集成起,可以實現將數據寫入S
    發表于 06-03 11:35

    通過 iftop、 nethogs 和 vnstat 詳細了解你的網絡連接狀態

    通過 iftop、 nethogs 和 vnstat 詳細了解你的網絡連接狀態。
    的頭像 發表于 01-27 21:10 ?2.1w次閱讀
    通過 iftop、 nethogs 和 vnstat <b class='flag-5'>詳細了解</b>你的網絡連接狀態

    NVMe標準更新定義了個軟件接口

    NVMe 2.0更廣泛的商業化和應用掃清了道路,目前NVMe 2.0直受到特定于供應商的分區存儲接口和有限硬件選擇的阻礙。
    的頭像 發表于 08-21 16:20 ?3118次閱讀
    <b class='flag-5'>NVMe</b>標準更新定義了<b class='flag-5'>一</b>個軟件<b class='flag-5'>接口</b>

    詳細了解OpenHarmony新圖形框架

    3月30日,OpenHarmony v3.1 Release版本正式發布了。此版本為大家帶來了全新的圖形框架,實現了UI框架顯示、多窗口、流暢動畫等基礎能力,夯實了OpenHarmony系統能力基座。下面就帶大家詳細了解新圖形框架。
    的頭像 發表于 04-27 13:21 ?2273次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>詳細了解</b>OpenHarmony新圖形框架

    新品推薦|40G光纖接入的NVME存儲模塊

    基于光纖接入的NVME存儲模塊對外提供2路40G高速接口,支持AURORA、SRIO高速協議實現多路數據的同時記錄和回放,可循環覆蓋通過FP
    的頭像 發表于 12-05 17:37 ?1023次閱讀
    新品推薦|40G光纖接入的<b class='flag-5'>NVME</b><b class='flag-5'>存儲</b>模塊

    帶您詳細了解IEEE802.3bt(PoE++)的有關特點

    Hqst華強盛(盈盛電子)導讀:帶您詳細了解IEEE802.3bt(PoE++)的有關特點,讓我們對IEEE802.3bt(PoE++)協議有更具體的了解
    的頭像 發表于 01-04 11:26 ?2324次閱讀
    帶您<b class='flag-5'>一</b>起<b class='flag-5'>詳細了解</b>IEEE802.3bt(PoE++)的有關特點

    Xilinx FPGA NVMe控制器,NVMe Host Controller IP

    NVMe Host Controller IP可以連接高速存儲PCIe SSD,無需CPU和外部存儲器,自動加速處理所有的NVMe協議命令,
    的頭像 發表于 02-18 11:27 ?946次閱讀
    Xilinx FPGA <b class='flag-5'>NVMe</b>控制器,<b class='flag-5'>NVMe</b> Host Controller IP

    帶你詳細了解工業電腦

    扇設計、承受振動和惡劣環境的能力、輕松配置、全面的I/O選項、延長生命周期、耐用的組件。了解如何為您的應用選擇工業電腦對提高設施的生產力和效率至關重要。詳細了解
    的頭像 發表于 06-12 14:24 ?462次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>帶你<b class='flag-5'>詳細了解</b>工業電腦

    m2接口sata和nvme怎么區分

    M.2接口種常見的固態硬盤接口,它支持SATA和NVMe兩種不同的協議。這兩種協議在性能、功耗、價格等方面存在定的差異,因此在選擇固態
    的頭像 發表于 07-10 10:19 ?5516次閱讀

    詳解 ALINX NVMe IP 特性

    - ALINX NVMe?IP - 在當下數據驅動的時代,企業對高性能存儲解決方案的需求不斷增加。NVMe AXI IP 憑借其支持大數據量、高速傳輸、低延遲等
    的頭像 發表于 11-14 13:59 ?303次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>詳解 ALINX <b class='flag-5'>NVMe</b> IP 特性
    主站蜘蛛池模板: 国产午夜精品一区二区理论影院| 和尚轮流澡到高潮H| 黄色三级网站在线观看| 午夜插插插| 国产91综合| 日本一卡2卡3卡四卡精品网站| 最新国自产拍 高清完整版| 九九热这里都是精品| 又黄又爽又无遮挡在线观看免费| 久久se视频精品视频在线| 一本道久在线综合色色| 色欲狠狠躁天天躁无码中文字幕| qvod在线观看| 欧美性appstin孕妇| gogogo视频在线观看| 嫩草电影网嫩草影院| 99在线免费| 日本成熟bbxxxxxxxx| 国产99视频精品一区| 亚洲AV永久无码精品老司机蜜桃| 99视频偷窥在线精品国自产拍| 年轻漂亮的妺妺中文字幕版| a在线观看视频| 色老板美国在线观看| 国产激情文学| 亚洲精品日韩在线观看视频| 狠狠色狠狠色综合日日2019| 又紧又大又爽精品一区二区| 男女后进式猛烈xx00动态图片| yy4408午夜场理论片| 天天槽任我槽免费| 精品国产成人系列| 嗯啊快拔出来我是你老师视频| AV无码九九久久| 天天国产在线精品亚洲| 娇妻归来在线观看免费完整版电影| 在线高清视频不卡无码| 欧美国产在线一区| 国产麻豆精品传媒AV国产在线 | 日韩精品 中文字幕 有码| 国产高清-国产av|