色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌AI利用機(jī)器學(xué)習(xí)和硬件加速器實(shí)現(xiàn)流體模擬數(shù)量級加速

深度學(xué)習(xí)實(shí)戰(zhàn) ? 來源:機(jī)器之心 ? 作者:魔王 ? 2021-02-24 09:35 ? 次閱讀

谷歌 AI 最近一項(xiàng)研究表明,利用機(jī)器學(xué)習(xí)和硬件加速器能夠改進(jìn)流體模擬,且不損害準(zhǔn)確率或泛化性能。

流體數(shù)值模擬對于建模多種物理現(xiàn)象而言非常重要,如天氣、氣候、空氣動力學(xué)和等離子體物理學(xué)。流體可以用納維 - 斯托克斯方程來描述,但大規(guī)模求解這類方程仍屬難題,受限于解決最小時空特征的計算成本。這就帶來了準(zhǔn)確率和易處理性之間的權(quán)衡。

fae3676a-74f7-11eb-8b86-12bb97331649.png

不可壓縮流體通常由如上納維 - 斯托克斯方程來建模。 最近,來自谷歌 AI 的研究人員利用端到端深度學(xué)習(xí)改進(jìn)計算流體動力學(xué)(CFD)中的近似,以建模二維渦流。對于湍流的直接數(shù)值模擬(direct numerical simulation, DNS)和大渦模擬(large eddy simulation, LES),該方法獲得的準(zhǔn)確率與基線求解器相同,而后者在每個空間維度的分辨率是前者的 8-10 倍,因而該方法實(shí)現(xiàn)了 40-80 倍的計算加速。在較長模擬中,該方法仍能保持穩(wěn)定,并泛化至訓(xùn)練所用流以外的力函數(shù)(forcing function)和雷諾數(shù),這與黑箱機(jī)器學(xué)習(xí)方法正相反。此外,該方法還具備通用性,可用于任意非線性偏微分方程。

fafb7878-74f7-11eb-8b86-12bb97331649.png

論文地址:https://arxiv.org/pdf/2102.01010.pdf 該研究作者之一、谷歌研究員 Stephan Hoyer 表示:這項(xiàng)研究表明,機(jī)器學(xué)習(xí) + TPU 可以使流體模擬加速多達(dá)兩個數(shù)量級,且不損害準(zhǔn)確率或泛化性能。

至于效果如何呢?論文共同一作 Dmitrii Kochkov 展示了該研究提出的神經(jīng)網(wǎng)絡(luò)與 Ground truth、基線的效果對比: 首先是雷諾數(shù) Re=1000 時,在 Kolmogorov 流上的效果對比:

fb5d3fe0-74f7-11eb-8b86-12bb97331649.gif

其次是關(guān)于衰變湍流(decaying turbulence)的效果對比:

fce866e6-74f7-11eb-8b86-12bb97331649.gif

最后是雷諾數(shù) Re=4000 時,在更復(fù)雜流上的效果對比:

fe6eba74-74f7-11eb-8b86-12bb97331649.gif

方法簡介 用非線性偏微分方程描述的復(fù)雜物理系統(tǒng)模擬對于工程與物理科學(xué)而言非常重要。然而,大規(guī)模求解這類方程并非易事。 谷歌 AI 這項(xiàng)研究提出一種方法來計算非線性偏微分方程解的準(zhǔn)確時間演化,并且其使用的網(wǎng)格分辨率比傳統(tǒng)方法實(shí)現(xiàn)同等準(zhǔn)確率要粗糙一個數(shù)量級。這種新型數(shù)值求解器不會對未解決的自由度取平均,而是使用離散方程,對未解決的網(wǎng)格給出逐點(diǎn)精確解。研究人員將受分辨率損失影響最大的傳統(tǒng)求解器組件替換為其學(xué)得的組件,利用機(jī)器學(xué)習(xí)發(fā)現(xiàn)了一些算法。 如下圖 1a 所示,對于渦流的二維直接數(shù)值模擬,該研究提出的算法可以在每個維度的分辨率粗糙 10 倍的情況下維持準(zhǔn)確率不變,也就是說獲得了 80 倍的計算時間改進(jìn)。該模型學(xué)習(xí)如何對解的局部特征進(jìn)行插值,從而能夠準(zhǔn)確泛化至不同的流條件,如不同受力條件,甚至不同的雷諾數(shù)(圖 1b)。 研究者還將該方法應(yīng)用于渦流的高分辨率 LES 模擬中,獲得了類似的性能提升,在網(wǎng)格分辨率粗糙 8 倍的情況下在 Re = 100, 000 LES 模擬中維持逐點(diǎn)準(zhǔn)確率不變,實(shí)現(xiàn)約 40 倍的計算加速。

0277f838-74f8-11eb-8b86-12bb97331649.png

圖 1:該研究提出方法與結(jié)果概覽。a)基線(direct simulation)與 ML 加速(learned interpolation)求解器的準(zhǔn)確率與計算成本對比情況;b)訓(xùn)練與驗(yàn)證樣本圖示,展示出該模型強(qiáng)大的泛化能力;c)該研究提出「learned interpolation」模型的單時間步結(jié)構(gòu),用卷積神經(jīng)網(wǎng)絡(luò)控制標(biāo)準(zhǔn)數(shù)值求解器對流計算中學(xué)得的近似。 研究者使用數(shù)據(jù)驅(qū)動離散化將微分算子插值到粗糙網(wǎng)格,且保證高準(zhǔn)確率(圖 1c)。具體而言,將求解底層偏微分方程的標(biāo)準(zhǔn)數(shù)值方法內(nèi)的求解器作為可微分編程進(jìn)行訓(xùn)練,在 JAX 框架中寫神經(jīng)網(wǎng)絡(luò)和數(shù)值方法(JAX 框架支持反向模式自動微分)。這允許對整個算法執(zhí)行端到端的梯度優(yōu)化,與密度泛函理論、分子動力學(xué)和流體方面的之前研究類似。

研究者推導(dǎo)出的這些方法是特定于方程的,需要使用高分辨率真值模擬訓(xùn)練粗糙分辨率的求解器。由于偏微分方程的動態(tài)是局部的,因此高分辨率模擬可以在小型域內(nèi)實(shí)施。 該算法的工作流程如下:在每一個時間步中,神經(jīng)網(wǎng)絡(luò)在每個網(wǎng)格位置基于速度場生成隱向量,然后求解器的子組件使用該向量處理局部解結(jié)構(gòu)。該神經(jīng)網(wǎng)絡(luò)為卷積網(wǎng)絡(luò),具備平移不變性,因而允許解結(jié)構(gòu)在空間中是局部的。之后,使用標(biāo)準(zhǔn)數(shù)值方法的組件執(zhí)行納維 - 斯托克斯方程對應(yīng)的歸納偏置,如圖 1c 灰色框所示:對流通量(convective flux)模型改進(jìn)離散對流算子的近似;散度算子(divergence operator)基于有限體積法執(zhí)行局部動量守恒;壓力投影(pressure projection)實(shí)現(xiàn)不可壓縮性,顯式時間步算子(explicit time step operator)使動態(tài)具備時間連續(xù)性,并允許額外時變力的插值。

「在更粗糙網(wǎng)格上的 DNS」將傳統(tǒng) DNS 和 LES 建模的界限模糊化,從而得到多種數(shù)據(jù)驅(qū)動方法。 該研究主要關(guān)注兩種 ML 組件:learned interpolation 和 learned correction。此處不再贅述,詳情參見原論文。 實(shí)驗(yàn)結(jié)果加速 DNS 一旦網(wǎng)格分辨率無法捕捉到解的最小細(xì)節(jié),則 DNS 的準(zhǔn)確率將快速下降。而該研究提出的 ML 方法極大地緩解了這一效應(yīng)。下圖 2 展示了雷諾數(shù) Re = 1000 的情況下在 Kolmogorov 流上訓(xùn)練和評估模型的結(jié)果。

02f321ca-74f8-11eb-8b86-12bb97331649.png

而就計算效率而言,10 倍網(wǎng)格粗糙度的情況下,learned interpolation 求解器取得與 DNS 同等準(zhǔn)確率的速度也要更快。研究者在單個谷歌云 TPU v4 內(nèi)核上對該求解器進(jìn)行了基準(zhǔn)測試,谷歌云 TPU 是用于機(jī)器學(xué)習(xí)模型的硬件加速器,也適用于許多科學(xué)計算用例。在足夠大的網(wǎng)格大小(256 × 256 甚至更大)上,該研究提出的神經(jīng)網(wǎng)絡(luò)能夠很好地利用矩陣乘法單元,每秒浮點(diǎn)運(yùn)算的吞吐量是基線 CFD 求解器的 12.5 倍。因此,盡管使用了 150 倍的算術(shù)運(yùn)算,該 ML 求解器所用時間仍然僅有同等分辨率下傳統(tǒng)求解器的 1/12。三個維度(兩個空間維度和一個時間維度)中有效分辨率的 10 倍提升,帶來了 10^3/12 ≈ 80 倍的加速。 此外,研究者還考慮了三種不同的泛化測試:大型域規(guī)模;非受迫衰減渦流;較大雷諾數(shù)的 Kolmogorov 流。 首先,研究者將同樣的力泛化至較大的域規(guī)模。該 ML 模型得到了與在訓(xùn)練域中同樣的性能,因?yàn)樗鼈儍H依賴流的局部特征(參見下圖 5)。 然后,研究者將在 Kolmogorov 流上訓(xùn)練的模型應(yīng)用于衰減渦流。下圖 3 表明,在 Kolmogorov 流 Re = 1000 上學(xué)得的離散模型的準(zhǔn)確率可以匹配以 7 倍分辨率運(yùn)行的 DNS。

03422c52-74f8-11eb-8b86-12bb97331649.png

最后,該模型可以泛化至更高的雷諾數(shù)嗎?也就是更復(fù)雜的流。下圖 4a 表明,該模型的準(zhǔn)確率可以匹配以 7 倍分辨率運(yùn)行的 DNS。鑒于該測試是在復(fù)雜度顯著增加的流上進(jìn)行的,因此這種泛化效果很不錯。圖 4b 對速度進(jìn)行了可視化,表明該模型可以處理更高的復(fù)雜度,圖 4c 的能譜進(jìn)一步驗(yàn)證了這一點(diǎn)。

036f9a3e-74f8-11eb-8b86-12bb97331649.png

與其他 ML 模型進(jìn)行對比 研究者將 learned interpolation 與其他 ML 方法的性能進(jìn)行了對比,包括 ResNet (RN) [50]、Encoder Processor-Decoder (EPD) [51, 52] 架構(gòu)和之前介紹的 learned correction (LC) 模型。下圖 5 展示了這些方法在所有考慮配置中的結(jié)果。總體而言,learned interpolation (LI) 性能最佳,learned correction (LC) 緊隨其后。

038a0a68-74f8-11eb-8b86-12bb97331649.png

對 LES 的加速效果 研究者已經(jīng)描述了該方法在 DNS 納維 - 斯托克斯方程中的應(yīng)用,但其實(shí)該方法是較為通用的,可用于任意非線性偏微分方程。為了證明這一點(diǎn),研究者將該方法應(yīng)用于 LES 加速。當(dāng) DNS 不可用時,LES 是執(zhí)行大規(guī)模模擬的行業(yè)標(biāo)準(zhǔn)方法。 下圖 6 表明,將 learned interpolation 應(yīng)用于 LES 也能達(dá)到 8 倍的 upscaling,相當(dāng)于實(shí)現(xiàn)大約 40 倍的加速。

03e3f5e6-74f8-11eb-8b86-12bb97331649.png

原文標(biāo)題:谷歌AI利用「ML+TPU」實(shí)現(xiàn)流體模擬數(shù)量級加速

文章出處:【微信公眾號:深度學(xué)習(xí)實(shí)戰(zhàn)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    33011

    瀏覽量

    272759
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8467

    瀏覽量

    133625

原文標(biāo)題:谷歌AI利用「ML+TPU」實(shí)現(xiàn)流體模擬數(shù)量級加速

文章出處:【微信號:gh_a204797f977b,微信公眾號:深度學(xué)習(xí)實(shí)戰(zhàn)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 0人收藏

    評論

    相關(guān)推薦

    FPGA+AI王炸組合如何重塑未來世界:看看DeepSeek東方神秘力量如何預(yù)測......

    。? AI加速器的開發(fā):FPGA被廣泛用于開發(fā)專為AI算法優(yōu)化的加速器,例如深度學(xué)習(xí)推理加速器
    發(fā)表于 03-03 11:21

    消息稱AMD Instinct MI400 AI加速器將配備8個計算芯片

    對比,目前的 MI300 系列加速器中每個 AID 僅包含 2 個加速計算芯片 ,MI400 在芯片數(shù)量實(shí)現(xiàn)了翻倍。如此一來,MI400 具備更強(qiáng)的并行處理
    的頭像 發(fā)表于 02-05 15:07 ?523次閱讀

    數(shù)據(jù)中心中的FPGA硬件加速器

    ? 再來看一篇FPGA的綜述,我們都知道微軟包括國內(nèi)的云廠商其實(shí)都在數(shù)據(jù)中心的服務(wù)中部署了FPGA,所以這篇論文就以數(shù)據(jù)中心的視角,來看下FPGA這個硬件加速器。 還是一樣,想要論文原文的可以私信
    的頭像 發(fā)表于 01-14 10:29 ?358次閱讀
    數(shù)據(jù)中心中的FPGA<b class='flag-5'>硬件加速器</b>

    從版本控制到全流程支持:揭秘Helix Core如何成為您的創(chuàng)意加速器

    加速器
    龍智DevSecOps
    發(fā)布于 :2024年11月26日 13:42:47

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPG
    的頭像 發(fā)表于 10-25 09:22 ?778次閱讀

    RISC-V跑AI算法能加速嗎?

    現(xiàn)在好多ARM單片機(jī)都帶機(jī)器學(xué)習(xí)加速,RISC-V有這方面的硬件加速嗎?
    發(fā)表于 10-10 22:14

    利用邊沿速率加速器和自動感應(yīng)電平轉(zhuǎn)換

    電子發(fā)燒友網(wǎng)站提供《利用邊沿速率加速器和自動感應(yīng)電平轉(zhuǎn)換.pdf》資料免費(fèi)下載
    發(fā)表于 09-02 11:58 ?1次下載
    <b class='flag-5'>利用</b>邊沿速率<b class='flag-5'>加速器</b>和自動感應(yīng)電平轉(zhuǎn)換<b class='flag-5'>器</b>

    適用于數(shù)據(jù)中心應(yīng)用中的硬件加速器的直流/直流轉(zhuǎn)換解決方案

    電子發(fā)燒友網(wǎng)站提供《適用于數(shù)據(jù)中心應(yīng)用中的硬件加速器的直流/直流轉(zhuǎn)換解決方案.pdf》資料免費(fèi)下載
    發(fā)表于 08-26 09:38 ?0次下載
    適用于數(shù)據(jù)中心應(yīng)用中的<b class='flag-5'>硬件加速器</b>的直流/直流轉(zhuǎn)換<b class='flag-5'>器</b>解決方案

    什么是神經(jīng)網(wǎng)絡(luò)加速器?它有哪些特點(diǎn)?

    神經(jīng)網(wǎng)絡(luò)加速器是一種專門設(shè)計用于提高神經(jīng)網(wǎng)絡(luò)計算效率的硬件設(shè)備。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展和廣泛應(yīng)用,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和計算量急劇增加,對計算性能的要求也越來越高。傳統(tǒng)的通用處理
    的頭像 發(fā)表于 07-11 10:40 ?715次閱讀

    西門子推出Catapult AI NN:重塑神經(jīng)網(wǎng)絡(luò)加速器設(shè)計的未來

    的需求,西門子數(shù)字化工業(yè)軟件日前推出了一款名為Catapult AI NN的創(chuàng)新軟件,旨在幫助神經(jīng)網(wǎng)絡(luò)加速器在專用集成電路(ASIC)和芯片級系統(tǒng)(SoC)上實(shí)現(xiàn)更高效的高層次綜合(HLS)。
    的頭像 發(fā)表于 06-19 16:40 ?878次閱讀

    西門子推出Catapult AI NN軟件,賦能神經(jīng)網(wǎng)絡(luò)加速器設(shè)計

    西門子數(shù)字化工業(yè)軟件近日發(fā)布了Catapult AI NN軟件,這款軟件在神經(jīng)網(wǎng)絡(luò)加速器設(shè)計領(lǐng)域邁出了重要一步。Catapult AI NN軟件專注于在專用集成電路(ASIC)和芯片級系統(tǒng)(SoC)上
    的頭像 發(fā)表于 06-19 11:27 ?1049次閱讀

    美國限制向中東AI加速器出口,審查國家安全

    AI加速器能協(xié)助數(shù)據(jù)中心處理大量人工智能聊天機(jī)器人和其他工具的開發(fā)信息。如今,它們已然成為構(gòu)建AI基礎(chǔ)設(shè)施的企業(yè)和政府的必需品。
    的頭像 發(fā)表于 05-31 09:20 ?792次閱讀

    PSoC 6 MCUBoot和mbedTLS是否支持加密硬件加速

    v3.0,它的上限是 MCUBoot v1.8.1。 當(dāng)前版本基于 MCUBoot v1.9.1,似乎支持加密硬件加速。 有什么最簡單的方法可以更新我的舊版引導(dǎo)加載,以便運(yùn)行 MCUBoot v1.9.1? 順便說一下,我的 PSoC 是 CY8C624ABZI-S2
    發(fā)表于 05-29 08:17

    Elektrobit利用其首創(chuàng)的硬件加速軟件優(yōu)化汽車通信網(wǎng)絡(luò)的性能

    Elektrobit今日宣布推出 EB zoneo GatewayCore——首款支持、配置和集成現(xiàn)代微控制新一代硬件加速器的軟件產(chǎn)品,可應(yīng)用于先進(jìn)的汽車電子/電氣架構(gòu)(基于被廣泛采用
    的頭像 發(fā)表于 04-17 09:51 ?450次閱讀

    用DE1-SOC進(jìn)行硬件加速的2D N-Body重力模擬器設(shè)計

    該項(xiàng)目的目標(biāo)是創(chuàng)建一個用DE1-SOC進(jìn)行硬件加速的2D N-Body重力模擬器
    的頭像 發(fā)表于 04-09 11:08 ?759次閱讀
    用DE1-SOC進(jìn)行<b class='flag-5'>硬件加速</b>的2D N-Body重力<b class='flag-5'>模擬器</b>設(shè)計

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學(xué)習(xí)
    • 獲取您個性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品
    主站蜘蛛池模板: Chinesetube国产中文 | 最近免费中文MV在线字幕 | 国产麻豆91网在线看 | aa级毛片毛片免费观看久 | 日韩人妻无码精品-专区 | 蜜臀色欲AV无人A片一区 | 免费看欧美一级特黄a大片 免费看欧美xxx片 | 我在厨房摸岳的乳HD在线观看 | 毛片大片免费看 | 美女图片131亚洲午夜 | 麻豆蜜桃国语精品无码视频 | 曰批国产精品视频免费观看 | 亚洲黄色高清视频 | 日韩一级精品久久久久 | A国产一区二区免费入口 | 亚洲国产精品无码中文字幕 | 把腿张开老子CAO烂你动态图 | 色久久一个亚洲综合网 | 涩涩涩涩爱网站 | 免费果冻传媒在线完整观看 | 起碰免费公开97在线视频 | 美女张开腿露出尿口扒开来摸动漫 | 看电影就来5566先锋av | 国产成人a在一区线观看高清 | 久久国产精品高清一区二区三区 | 日本免费无码A专区在线观看 | 毛片在线网址 | 日本特黄网站 | 色AV色婷婷97人妻久久久 | 边吃胸边膜下床震免费版视频 | 野花视频在线观看免费最新动漫 | 花蝴蝶高清影视视频在线播放 | 94色94色永久网站 | 年轻夫妇韩剧中文版免费观看 | 女厕所边摸边吃奶边做爽视频 | 差差差差差差差差免费观看 | 久久久久嫩草影院精品 | 欧美97色伦综合网 | 国语自产拍在线视频普通话 | 父亲在线日本综艺免费观看全集 | 午夜婷婷一夜七次郎 |