色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

邁向更高效的圖像分類:解析DeiT模型的移植和適配

算能開發(fā)者社區(qū) ? 2023-11-23 08:33 ? 次閱讀

1. DeiT概述

1.1 項目簡介

Deit(Data-efficient image Transformers)是由Facebook與索邦大學的Matthieu Cord教授合作開發(fā)的圖像分類模型。作為一種基于Transformer架構的深度學習模型,DeiT在保持高性能的同時,能夠大大提高數(shù)據(jù)效率,為圖像識別領域帶來了顛覆性的變化。

與傳統(tǒng)的CNN不同,DeiT模型采用了Transformer的自注意力機制,將圖像分割成若干個固定大小的塊,并對每個塊進行編碼,捕捉圖像中的長程依賴關系。

本文將為大家介紹如何將DeiT移植到算能BM1684X平臺上。

1.2 模型介紹

DeiT目前有3個版本的模型(tiny, small, base),均由12個Attention結構組成,模型區(qū)別在于輸入的header個數(shù)及embed_dim不同。

Attention結構如下圖所示:

f5dd2bea-8997-11ee-9788-92fbcf53809c.pngattention

不同版本的模型具體參數(shù)區(qū)別如下表:

f5f01ad4-8997-11ee-9788-92fbcf53809c.pngversion

2. 模型移植

以下部分介紹如何將DeiT移植到算能BM1684X平臺上。

2.1 模型trace

原始DeiT模型基于Pytorch框架訓練及推理。算能TPU-MLIR工具鏈可以編譯通過jit trace過的靜態(tài)模型。

首先進行模型trace,命令如下,需要修改原推理代碼。

f612c46c-8997-11ee-9788-92fbcf53809c.pngtrace

2.2 模型編譯

以下介紹如何使用算能TPU-MLIR工具鏈將上一步trace過的模型編譯成可以在算能BM1684X上推理的bmodel。在模型移植過程中遇到一些算子邊界的處理問題,均已修復。

f6221b60-8997-11ee-9788-92fbcf53809c.pngtransformf634c6ac-8997-11ee-9788-92fbcf53809c.pngdeploy

2.3 精度測試

DeiT為分類模型,精度測試采用topk來進行。

精度測試及性能測試結果如下:

f649d45c-8997-11ee-9788-92fbcf53809c.pngprecision

3 小結

總體看移植過程相對順利,在解決了部分算子邊界問題之后可以成功編譯出bmodel。F32精度基本可與原始框架對齊。由于第一個Conv stride > 15,在進行F16/BF16轉換時遇到比對問題,這部分代碼目前仍在重構,生成bmodel過程中這部分采用F32混精度處理。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關注

    關注

    2

    文章

    1083

    瀏覽量

    40449
  • 模型
    +關注

    關注

    1

    文章

    3226

    瀏覽量

    48809
  • 深度學習
    +關注

    關注

    73

    文章

    5500

    瀏覽量

    121113
收藏 人收藏

    評論

    相關推薦

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    的規(guī)律,從而降低了模型在新數(shù)據(jù)上的泛化能力。 對抗攻擊易感性:圖像分類模型容易受到精心設計的對抗樣本的影響,這些樣本在人類看來幾乎與原始圖像
    發(fā)表于 12-19 14:33

    使用卷積神經(jīng)網(wǎng)絡進行圖像分類的步驟

    使用卷積神經(jīng)網(wǎng)絡(CNN)進行圖像分類是一個涉及多個步驟的過程。 1. 問題定義 確定目標 :明確你想要分類圖像類型,例如貓和狗、不同的植物種類等。 數(shù)據(jù)需求 :確定需要多少數(shù)據(jù)以及
    的頭像 發(fā)表于 11-15 15:01 ?276次閱讀

    高效模型的推理綜述

    模型由于其在各種任務中的出色表現(xiàn)而引起了廣泛的關注。然而,大模型推理的大量計算和內存需求對其在資源受限場景的部署提出了挑戰(zhàn)。業(yè)內一直在努力開發(fā)旨在提高大模型推理效率的技術。本文對現(xiàn)有的關于
    的頭像 發(fā)表于 11-15 11:45 ?341次閱讀
    <b class='flag-5'>高效</b>大<b class='flag-5'>模型</b>的推理綜述

    主動學習在圖像分類技術中的應用:當前狀態(tài)與未來展望

    本文對近年來提出的主動學習圖像分類算法進行了詳細綜述,并根據(jù)所用樣本數(shù)據(jù)處理及模型優(yōu)化方案,將現(xiàn)有算法分為三類:基于數(shù)據(jù)增強的算法,包括利用圖像增廣來擴充訓練數(shù)據(jù),或者根據(jù)
    的頭像 發(fā)表于 11-14 10:12 ?258次閱讀
    主動學習在<b class='flag-5'>圖像</b><b class='flag-5'>分類</b>技術中的應用:當前狀態(tài)與未來展望

    字節(jié)發(fā)布SeedEdit圖像編輯模型

    近日,字節(jié)跳動公司在其豆包大模型團隊的官方網(wǎng)站上,正式公布了其最新的通用圖像編輯模型——SeedEdit。這款創(chuàng)新性的圖像編輯模型,為用戶提
    的頭像 發(fā)表于 11-12 10:43 ?248次閱讀

    AI大模型圖像識別中的優(yōu)勢

    AI大模型圖像識別中展現(xiàn)出了顯著的優(yōu)勢,這些優(yōu)勢主要源于其強大的計算能力、深度學習算法以及大規(guī)模的數(shù)據(jù)處理能力。以下是對AI大模型圖像識別中優(yōu)勢的介紹: 一、
    的頭像 發(fā)表于 10-23 15:01 ?603次閱讀

    浪潮信息源2.0大模型與百度PaddleNLP全面適配

    近日,浪潮信息宣布其開源大模型源2.0已全面適配百度PaddleNLP。這一舉措標志著大模型開發(fā)生態(tài)正加速進化,為用戶提供了更加便捷、高效的大模型
    的頭像 發(fā)表于 10-17 18:15 ?511次閱讀

    GaN如何實現(xiàn)更高效、更緊湊的電源

    電子發(fā)燒友網(wǎng)站提供《GaN如何實現(xiàn)更高效、更緊湊的電源.pdf》資料免費下載
    發(fā)表于 09-12 10:00 ?0次下載
    GaN如何實現(xiàn)<b class='flag-5'>更高效</b>、更緊湊的電源

    計算機視覺怎么給圖像分類

    圖像分類是計算機視覺領域中的一項核心任務,其目標是將輸入的圖像自動分配到預定義的類別集合中。這一過程涉及圖像的特征提取、特征表示以及分類器的
    的頭像 發(fā)表于 07-08 17:06 ?643次閱讀

    如何使用PyTorch構建更高效的人工智能

    術界和工業(yè)界得到了廣泛應用。本文將深入探討如何使用PyTorch構建更高效的人工智能系統(tǒng),從框架基礎、模型訓練、實戰(zhàn)應用等多個方面進行詳細解析
    的頭像 發(fā)表于 07-02 13:12 ?374次閱讀

    鴻蒙應用模型:【應用模型解析

    應用模型是系統(tǒng)為開發(fā)者提供的應用程序所需能力的抽象提煉,它提供了應用程序必備的組件和運行機制。有了應用模型,開發(fā)者可以基于一套統(tǒng)一的模型進行應用開發(fā),使應用開發(fā)更簡單、高效
    的頭像 發(fā)表于 05-31 11:38 ?499次閱讀
    鴻蒙應用<b class='flag-5'>模型</b>:【應用<b class='flag-5'>模型</b>】<b class='flag-5'>解析</b>

    一種利用光電容積描記(PPG)信號和深度學習模型對高血壓分類的新方法

    ,因此在醫(yī)療信號方面它比其他模型產(chǎn)生了更高的準確度結果。從我們提出的模型 AvgPool_VGG-16 獲得的結果表明,平均池化是比最大池化更適合信號圖像
    發(fā)表于 05-11 20:01

    搭載星火認知大模型的AI鼠標:一鍵呼出AI助手,辦公更高效

    搭載星火認知大模型的AI鼠標:一鍵呼出AI助手,辦公更高效 在這個AI時代,如果你想在激烈競爭的職場中不被淘汰,訊飛AI鼠標AM30就是你的不二選擇。 這款鼠標搭載了星火認知大模型AI,為你提供了
    的頭像 發(fā)表于 03-25 11:52 ?483次閱讀
    搭載星火認知大<b class='flag-5'>模型</b>的AI鼠標:一鍵呼出AI助手,辦公<b class='flag-5'>更高效</b>

    自動駕駛和多模態(tài)大語言模型的發(fā)展歷程

    多模態(tài)大語言模型(MLLM) 最近引起了廣泛的關注,其將 LLM 的推理能力與圖像、視頻和音頻數(shù)據(jù)相結合,通過多模態(tài)對齊使它們能夠更高效地執(zhí)行各種任務,包括圖像
    發(fā)表于 12-28 11:45 ?520次閱讀
    自動駕駛和多模態(tài)大語言<b class='flag-5'>模型</b>的發(fā)展歷程

    CNN圖像分類策略

    在深度學習出現(xiàn)之前,自然圖像中的對象識別過程相當粗暴簡單:定義一組關鍵視覺特征(“單詞”),識別每個視覺特征在圖像中的存在頻率(“包”),然后根據(jù)這些數(shù)字對圖像進行分類。這些
    發(fā)表于 12-25 11:36 ?290次閱讀
    CNN<b class='flag-5'>圖像</b><b class='flag-5'>分類</b>策略
    主站蜘蛛池模板: 天天综合亚洲综合网站| 久久天天综合| 国产色婷亚洲99精品AV在线| 老阿姨儿子一二三区| 亚洲成人免费看| 大桥未久在线看| 泡妞高手在都市完整版视频免费 | 久久婷五月综合色啪首页| 亚洲成a人不卡在线观看| 国产高清视频免费在线观看| 日本综艺大尺度无删减版在线| 97国产精品人妻无码免费| 久久久久久久网站| 在线观看国产高清免费不卡| 精品精品国产yyy5857香蕉| 亚洲国产精品久久精品成人网站 | 果冻传媒独家原创在线观看| 亚洲电影不卡| 精品国产午夜福利在线观看蜜月| 亚洲国产精品综合久久一线| 国产亚洲精品精品精品| 亚洲人成色777777老人头| 极品少妇小泬50PTHEPON| 亚洲永久精品AV在线观看| 久久国产主播福利在线| 中文在线中文资源| 免费看a毛片| tube69hdxxxx日本| 色中色最新地址登陆| 国产亚洲精品久久久久久禁果TV | 免费精品美女久久久久久久久久| 中文字幕专区高清在线观看| 嗯呐啊唔高H兽交| YELLOW高清在线观看2019| 神马影院午夜伦理限级| 国产一区91| 37pao成人国产永久免费视频| 年轻老师毛茸茸自由性| 差差差差差差差差免费观看| 午夜精品久久久久久久99蜜桃| 国产呦精品一区二区三区下载|