色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

從CPU角度分析IPC產生的原因

Linux閱碼場 ? 來源:Linuxer ? 作者:Linuxer ? 2020-10-09 10:52 ? 次閱讀

IPC的意義

一般來說IPC是越高越好, 這意味著單位時間執行了更多的指令, 通過觀測IPC可以一定程度上了解軟件的執行效率。 但是多高才算高呢? 這并沒有標準答案, 它需要有基線進行對比, 有的代碼邏輯就決定了不可能有太高的IPC, 比如存在大量的跳轉邏輯或者隨機訪問, 當然這可能就是需要優化的地方。

首先來看一個簡單的測試程序:

# cat s1.c void main() { unsigned long sum = 0, i = 0; for (i = 0; i 《 0x10000000; i += 1) { sum += i; } } $ gcc -O0 s1.c -o s1 $ perf stat 。/s1 2,145,851,708 cycles # 2.284 GHz (83.30%) 1,606,130,789 stalled-cycles-frontend # 74.85% frontend cycles idle (83.30%) 180,401,278 stalled-cycles-backend # 8.41% backend cycles idle (66.78%) 1,347,161,466 instructions # 0.63 insns per cycle

一種比較通用的優化方法就是把for循環展開(unroll), 再來看看效果:

$ cat s2.c void main() { unsigned long sum = 0, a = 0, b = 0, c = 0, d = 0, i = 0; for (i = 0; i 《 0x10000000; i += 4) { a += i; b += i + 1; c += i + 2; d += i + 3; } sum = a + b + c + d; } $ perf stat 。/s2 632,338,513 cycles # 2.281 GHz (83.40%) 229,407,430 stalled-cycles-frontend # 36.28% frontend cycles idle (83.41%) 7,151,154 stalled-cycles-backend # 1.13% backend cycles idle (66.83%) 1,343,577,403 instructions # 2.12 insns per cycle

可以看到, 這個優化效果非常好, IPC從0.63上升到了2.12, 同時CPU執行cycles也相應地從2,145,851,708下降到了632,338,513. 不過指令條數基本上沒有變化, 如果再看匯編代碼, 就會發現-O0編譯出來的代碼還有很多訪存, 那么我們現在稍微修改一下, 使用register來存放變量i:

$ cat s3.c void main() { unsigned long sum = 0, a = 0, b = 0, c = 0, d = 0; register unsigned long i = 0; for (i = 0; i 《 0x10000000; i += 4) { a += i; b += i + 1; c += i + 2; d += i + 3; } sum = a + b + c + d; } $ gcc -O0 s3.c -o s3 $ perf stat 。/s3 540,912,972 cycles # 2.284 GHz (83.12%) 270,437,339 stalled-cycles-frontend # 50.00% frontend cycles idle (83.48%) 5,344,535 stalled-cycles-backend # 0.99% backend cycles idle (67.08%) 1,074,783,046 instructions # 1.99 insns per cycle

這個優化同樣有效, CPU執行時間從632,338,513 cycles減少到540,912,972, 不過IPC卻從2.12減少到了1.99, 性能提升主要來源于指令條數的較少。 再進一步, 所有變量都使用register:

$ cat s4.c void main() { register unsigned long sum = 0, a = 0, b = 0, c = 0, d = 0; register unsigned long i = 0; for (i = 0; i 《 0x10000000; i += 4) { a += i; b += i + 1; c += i + 2; d += i + 3; } sum = a + b + c + d; } $ gcc -O0 s4.c -o s4 $ perf stat 。/s4 203,071,748 cycles # 2.284 GHz (83.14%) 68,298,093 stalled-cycles-frontend # 33.63% frontend cycles idle (83.15%) 1,056,363 stalled-cycles-backend # 0.52% backend cycles idle (67.05%) 598,151,024 instructions # 2.95 insns per cycle

這個優化更加明顯, CPU執行時間優化了一大半, 這來源于指令條數大幅減少了40%, 同時IPC從1.99上升到了2.95. 到這里我們已經拿到了一個相對滿意的結果, 是否還有優化的空間我們可以一起思考。

那么IPC到底說明了什么? 它從某一個側面說明了CPU的執行效率, 卻也不是全部。 想要提高應用的效率, 注意不是CPU的效率, 簡單地說無非兩點:

沒必要的事情不做

必須做的事情做得更高效, 這個是IPC可以發揮的地方

指令并發

上面已經看到, IPC是可以大于1的。 一般的理解是CPU通過pipeline提高了throughput, 但一條流水線每個cycle還是只能完成一條指令, 這種情況下IPC是《=1的。 那么是否可以推測出一個CPU上其實有多條流水線? 答案是肯定的。 不過多流水其實有不同的實現方法, 主要是VLIW (Very Long Instruction Word) 和SuperScalar, VLIW通過compiler在編譯時靜態完成多指令的調度, 而SuperScalar則是在運行時調度多指令。 目前稍微好點的CPU使用的都是SuperScalar, Intel的CPU也不例外。

具體的信息可以參考Instruction Level Parallelism

飛得更高

既然IPC可以接近3, 那么還能不能再高點? 我們看2個測試, alu.c 和 nop.c, 測試運行在Xeon E5-2682 v4 (Broadwell架構)。

$cat alu.c void main() { while(1) { __asm__ ( “movq $0x0,%rax ” “movq $0xa,%rbx ” “andq $0x12345678,%rbx ” “orq $0x12345678,%rbx ” “shlq $0x2,%rbx ” “addq %rbx,%rax ” “subq $0x14,%rax ” “movq %rax,%rcx”); } } $gcc alu.c -o alu $perf stat 。/alu 6,812,447,936 instructions # 3.84 insns per cycle $cat nop.c void main() { while(1) { __asm__ (“nop ” 。。. // 總共128個nop操作 “nop”); } } $gcc nop.c -o nop 8,577,428,850 instructions # 3.66 insns per cycle

通過這2個測試可以看到, IPC甚至可以接近4, 同時也產生了幾個疑問:

3.84應該不是極限, 至少應該是個整數吧?

alu比nop還高, 這似乎不符合常理?

alu中的很多指令有依賴關系, 怎么達到高并發的?

首先來看第一個問題, 為什么是3.84, 而不是4或者5呢? 這里面第一個需要關注的地方就是while(1), 相對于其他move/and/or/shl/sub指令, 它是一個branch指令。 CPU對branch的支持肯定會復雜一點, 碰到branch指令還會prefetch之后的指令嗎? 如果branch taken了那之前的prefetch不就沒用了? 另一個需要考慮的就是Broadwell的每個core里面只有4個ALU, 其中只有2個ALU能夠執行跳轉指令, 并且每個cycle最多能夠dispatch 4個micro ops. 而alu.c中每個循環是8條指令, 加上跳轉指令本身有9條指令, 看起來不是最好的情況。 那么在循環中減少一條指令會怎么樣:

$sed /orq/d alu.c 》 alu8.c $gcc alu8.c -o alu8 $perf stat 。/alu8 10,276,581,049 instructions # 3.99 insns per cycle

可以看到IPC已經達到3.99, 非常接近4了。 如果把每個循環的指令條數修改為12 (包括跳轉指令), 16, 20等都可以驗證IPC在3.99左右, 反之如果是13, 14就差一點。 唯一的例外來自于7, 它同樣能達到3.99 (原因?), 再減少到6又差點。

這里使用了一個userspace讀CPU PMU的工具likwid

$likwid-perfctr -g UOPS_ISSUED_CORE_STALL_CYCLES:PMC0,UOPS_ISSUED_CORE_TOTAL_CYCLES:PMC1,UOPS_EXECUTED_STALL_CYCLES:PMC2,UOPS_EXECUTED_TOTAL_CYCLES:PMC3 -t 1s -O -C 1 。/alu

根據上面的結果可見, stalled cycle并無明顯區別, 因為只有當一個cycle中沒有issue/execute任何一條指令的時候才計算, 對于這個測試用例是很少發生的。 測試發現event IDQ_UOPS_NOT_DELIVERED 和IPC的變化表現出相關性。 Intel 64 and IA-32 Architectures Optimization Reference Manual, B.4.7.1 Understanding the Micro-op Delivery Rate

也就是說front end不能夠及時把指令發給RAT (Resource Allocation Table), 這個通過stalled-cycle-front end是不一定能看出的。 那么一個無條件jmp指令怎么就能影響到front end, 并且還跟每個循環的指令數相關? 按理說所有的micro ops都已經在IDQ (Instruction Decode Queue)中, 并且LSD (Loop Stream Detector)應該完全能夠cover住這幾條指令。 具體原因暫時還不清楚, 如果知道這個了, 也許就有了另外一個問題的答案, 為什么是3.84而不是3.75或者別的呢?

現在來看第二個問題, 為什么alu比nop的IPC還要高呢? 上面已經分析過jmp指令的影響, 并且瓶頸點是在front end而不是在back end, nop和alu的指令并沒什么區別。 所以需要控制的是一個循環的指令數, 把其修改為8, 則nop一樣可以達到3.99的IPC.

第三個問題, CPU是怎么處理數據依賴的。 首先需要明確的是, 產生了數據依賴肯定會給并發帶來影響, 后面的指令必須等待前面指令的結果。 這里關鍵的一點是雖然在一個循環里面沒有獨立的四條指令, 但這并不影響2個甚至多個循環的并發性。 也就是說, 即使有跳轉指令, 后續的指令依然可以亂序執行。 但兩次循環之間不還是使用相同的寄存器從而產生依賴嗎? 是的, 如果它們最終使用的是相同的寄存器。 不過對于CPU來說, 匯編指令中的rax, rbx等不過是邏輯寄存器, 運行時還要進行一次rename的過程, 這個過程把一些false dependency給解決掉。 比如wiki上的例子。 而且CPU內部物理寄存器的個數是遠遠大于可以rename的邏輯寄存器個數的, 一般來說足夠解決在流水線及亂序情況下的false dependency.

CPU架構

再繼續探討IPC之前有必要先了解一下CPU的體系結構, 以Haswell (和Broadwell同一個架構, 更小的制程) 為例:

CPU是流水線工作的, 前半部分可以稱為front end, 功能主要包括取指, 譯碼等, 在這個圖中IDQ及其前面的部分就是front end. 譯碼其實是個很費時間的步驟, 因為x86是外表是CISC架構, 支持變長的指令, 內部其實更像RISC架構, 所以需要把這些宏指令(也就是匯編指令)轉化為微指令(micro ops/uops)。 對于Broadwell, IDQ的最大帶寬是4 uops/cycle, Skylake的帶寬可以到6 uops/cycle. 關于譯碼的作用, 可以參考A JOURNEY IN MODERN COMPUTER ARCHITECTURES

back end自然指的就是IDQ后面的部分。 Broadwell (Skylake也一樣) 的scheduler最大輸入是4 uops/cycle. 考慮到有的指令比如nop, xor rax,rax等在rename階段就結束, 并且這類指令的IPC同樣只能到4 uops/cycle, 可以確定rename的帶寬只有4 uops/cycle, 那是不是剛好說明最大IPC是4呢?

執行單元(port)總共有8個, 其中4個p0156能執行ALU操作, 注意能執行branch的只有2個p06. scheduler最多可以調度8 uops/cycle.

micro/macro fusion

如果沒有fusion, 可以認為4 uops/cycle就是IPC的最大值, 并且前面的測試代碼已經做到了。

micro fusion. 因為CPU的執行單元是類RISC, 所以一條instruction有可能需要拆成2條或者多條uops. 比如store, 就需要2條uops, 一個store address (上圖中STA), 一個store data (STD)。 micro fusion把這2條uops合并成一個uops, 雖然在執行時又分成2個uops. 關于micro fusion的decoder的影響同樣可以參考Decoding x86: From P6 to Core 2 - Part 2. 利用好micro fusion能提升程序的效率, 但micro fusion不會提升最大IPC.

macro fusion. 如果相鄰的2條instruction符合某種條件, macro fusion會把它們合并成一個uops, 在執行的時候也不會再拆成2個。 很顯然macro fusion是有可能提高max IPC的。 上面已經了解到, 整個CPU執行棧的瓶頸在rename階段只能處理4個uops, 既然一個uops可以包含2條指令, 不就可以處理更多的instruction了嗎? 答案是肯定的。 macro fusion的條件主要包括:

第一條指令是CMP, TEST, ADD, SUB, AND, INC, DEC

第二條指令是conditional branch

天空在哪

上面macro fusion的討論中已知1 uops可以包含2 instructions, 那是不是可以簡單計算得到max IPC = 4 * 2? 上面已經說過, 8個port中只有2個是支持branch的, 而macro fusion中必須包含branch, 所以max IPC = 6. 還有一個問題是以后IPC還會不會漲, 為什么呢?

來自agner.org的一個例子:

#define ASM_TWO_MICRO_TWO_MACRO(in1, sum1, in2, sum2, max) __asm volatile (“1: ” “add (%[IN1]), %[SUM1] ” “cmp %[MAX], %[SUM1] ” “jae 2f ” “add (%[IN2]), %[SUM2] ” “cmp %[MAX], %[SUM2] ” “jb 1b ” “2:” : [SUM1] “+&r” (sum1), [SUM2] “+&r” (sum2) : [IN1] “r” (in1), [IN2] “r” (in2), [MAX] “r” (max)) +----------------------------+---------+--------------+| Event | Counter | Core 1 |+----------------------------+---------+--------------+| Runtime (RDTSC) [s] | TSC | 4.038255e-01 || UOPS_ISSUED_ANY | PMC0 | 4000147000 || UOPS_EXECUTED_CORE | PMC1 | 6000580000 || UOPS_RETIRED_ALL | PMC2 | 6000100000 || BR_INST_RETIRED_NEAR_TAKEN | PMC3 | 1000001000 || INSTR_RETIRED_ANY | FIXC0 | 6000005000 || CPU_CLK_UNHALTED_CORE | FIXC1 | 1003127000 || CPU_CLK_UNHALTED_REF | FIXC2 | 1003129000 |+----------------------------+---------+--------------+

性能調試

指令相關的性能調試大框架可以參考Intel優化手冊的方法

本文目的

本文通過有意構造出來的理想代碼, 從CPU角度分析IPC產生的原因。 雖然這些代碼在生產環境中出現的可能性很小, 但是通過分析這些極端情況, 不只了解了CPU的極限在哪, 分析過程本身也很有意義。 那么我們是不是可以去嘗試回答這些問題: 為什么超線程這么不給力? Xeon E5-2682相比E5-2630有哪些改進? CPU使用率都100%了還有提高空間嗎? IPC還會增長嗎?

責任編輯:YYX

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • cpu
    cpu
    +關注

    關注

    68

    文章

    10901

    瀏覽量

    212650
  • IPC
    IPC
    +關注

    關注

    3

    文章

    352

    瀏覽量

    52005

原文標題:IPC到底能有多高

文章出處:【微信號:LinuxDev,微信公眾號:Linux閱碼場】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    右側光纖切斷角度有誤的原因

    光纖切斷角度有誤的原因可能涉及多個方面,以下是一些常見的因素: 一、設備問題 刀片高度不當:光纖切割刀在使用時,如果刀片的高度設置過高,可能會導致切割角度過大。此時,需要調整刀架的高度,一般調整方法
    的頭像 發表于 12-05 10:43 ?168次閱讀

    時域和頻域兩個角度對信號進行分析

    一般來說,我們會時域和頻域兩個角度,分別對信號進行分析。 時域 時域是真實世界存在的域,按時間順序呈現。例如,在某個時鐘信號的時域圖中,可以觀察到兩個重要的參數,波形的周期和上升沿: 時鐘周期即
    的頭像 發表于 11-19 10:18 ?1350次閱讀
    <b class='flag-5'>從</b>時域和頻域兩個<b class='flag-5'>角度</b>對信號進行<b class='flag-5'>分析</b>

    ipc系統的網絡帶寬需求分析

    IPC(Internet Protocol Camera)系統的網絡帶寬需求分析涉及多個因素,包括IPC的碼流大小、網絡架構、監控需求等。以下是對IPC系統網絡帶寬需求的
    的頭像 發表于 11-15 14:28 ?417次閱讀

    分析波峰焊時產生連錫(短路)的原因以及解決辦法

    隨著我國高科技產品的不斷發展,現在機械設備中的線路板工藝設計越來越復雜,引線腳之間的間距越來越密集,很容易導致焊接之后產生連錫現象,也就是短路。為此,我們應該如何分析波峰焊連錫的原因以及找到相對
    的頭像 發表于 10-23 16:24 ?449次閱讀
    <b class='flag-5'>分析</b>波峰焊時<b class='flag-5'>產生</b>連錫(短路)的<b class='flag-5'>原因</b>以及解決辦法

    MOS管泄漏電流的類型和產生原因

    MOS管(金屬氧化物半導體場效應晶體管)的泄漏電流是指在MOS管關斷狀態下,源極或漏極到襯底之間仍然存在的微弱電流。這些泄漏電流可能對電路的性能和穩定性產生不利影響,因此需要深入了解其類型和產生
    的頭像 發表于 10-10 15:11 ?2510次閱讀

    儀表溫度異常的產生原因

    電子發燒友網站提供《儀表溫度異常的產生原因.docx》資料免費下載
    發表于 09-12 14:09 ?0次下載

    簡述自激振蕩產生原因

    自激振蕩是指在沒有外部驅動信號的情況下,系統內部由于某種機制自發產生的振蕩現象。這種現象在電子、機械、聲學等多個領域中廣泛存在,其產生原因復雜多樣。以下是對自激振蕩產生
    的頭像 發表于 09-03 10:59 ?1090次閱讀

    IPC-2152 與 IPC-2221:哪種標準適合用于 PCB 熱分析

    數十年來,IPC一直在與業內專業人士合作,制定有關PCB設計和制造的綜合標準。在大多數情況下,這些努力都取得了成效,而且在這些標準小組的參與者中形成了一種持續改進的文化。制定標準的一個重要領域是定義
    的頭像 發表于 06-15 08:12 ?5604次閱讀
    <b class='flag-5'>IPC</b>-2152 與 <b class='flag-5'>IPC</b>-2221:哪種標準適合用于 PCB 熱<b class='flag-5'>分析</b>

    變頻器產生噪音的原因及處理方法

    噪音的原因并采取有效的處理方法,對于確保設備安全、提高工作效率具有重要意義。本文將對變頻器產生噪音的原因進行深入分析,并提出相應的處理方法。
    的頭像 發表于 06-11 17:50 ?4130次閱讀

    MOS管尖峰產生原因

    ,深入了解MOS管尖峰產生原因對于電路設計和維護具有重要意義。本文將從多個方面詳細分析MOS管尖峰產生原因,并給出相應的解決方案。
    的頭像 發表于 05-30 16:32 ?3129次閱讀

    空載線路合閘過電壓產生原因分析

    過電壓產生原因對電力系統的安全運行至關重要。 要分析空載線路合閘過電壓的產生原因,首先需要了解合閘過程中電壓的變化規律。在恢復供電的瞬間,
    的頭像 發表于 03-15 17:01 ?3684次閱讀

    如何從不同角度分析電容去耦原理

    儲能角度理解電容容易造成一種錯覺,認為電容越大越好。而且容易誤導大家認為儲能作用發生在低頻段,不容易向高頻擴展。實際上,儲能角度理解,可以解釋任何電容的功能。
    發表于 03-04 15:07 ?506次閱讀
    如何從不同<b class='flag-5'>角度</b><b class='flag-5'>分析</b>電容去耦原理

    光纜故障的主要產生原因及解決方案

    光纜故障的主要產生原因及解決方案 光纜是現代通信領域中重要的傳輸介質,其穩定可靠的運行對于現代社會的信息傳輸和通信起著至關重要的作用。然而,光纜在使用過程中,也存在著各種故障問題,這些故障問題對于
    的頭像 發表于 02-04 10:11 ?4818次閱讀

    電壓驟降的原因分析

    電壓驟降的原因分析? 電壓驟降是指電路中電壓突然下降的現象。電壓驟降可能出現在各種電路中,包括直流電路、交流電路、數字電路和模擬電路等。電壓驟降的產生原因有很多,下面將詳細
    的頭像 發表于 02-01 15:08 ?5815次閱讀

    IPC平臺商的市場格局

    AIoT星圖研究院《2023視覺IoT消費市場分析報告》市場調研臨近尾聲,在我們走訪企業時發現個有趣的現象:“頭部方案商自己在做IPC平臺,而不少IPC平臺商也做方案,甚至成品”。平臺商成本很高,在
    的頭像 發表于 01-25 11:00 ?1188次閱讀
    <b class='flag-5'>IPC</b>平臺商的市場格局
    主站蜘蛛池模板: 免费看毛片网| 免费看亚洲| 全彩acg无翼乌火影忍者| 岳打开双腿开始配合日韩视频| 国产偷抇久久精品A片蜜臀A| 日韩亚洲国产中文字幕欧美| adc免费观看| 男人私gay挠脚心vk视频| 最近的2019中文字幕国语版| 快播金瓶梅| 999资源站| 国产超嫩一线天在线播放| 日日噜噜噜噜夜夜爽亚洲精品| 成年人视频在线免费看| 日本免费一区二区三区最新vr | 中文无码热在线视频| 久久精品亚洲精品国产欧美| 中文字幕蜜臀AV熟女人妻| 护士WC女子撒尿| 影音先锋男人资源813.| 麻豆国产精品va在线观看约| 99久久精品国产一区二区三区| 欧美日韩综合一区| 抽插内射高潮呻吟爆乳| 双性被疯狂灌满精NP| 国产亚洲精品免费视频| 亚洲一区二区免费看| 老湿司午夜爽爽影院榴莲视频 | 国产日韩精品SUV| 一本久道久久综合婷婷五月| 龙泽罗拉av| 成人精品在线视频| 亚洲国产AV无码综合在线| 久久久精品久久久久久| brazzers欧美孕交| 玩两个少妇女邻居| 久久精品视频15人人爱在线直播| abp-146| 午夜人妻理论片天堂影院| 久久久久综合网| 纯肉高H啪短文合集|