色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

【AI簡報20230304期】 ChatGPT API 正式發布、2023年中國人工智能產業趨勢報告

RTThread物聯網操作系統 ? 來源:未知 ? 2023-03-10 23:30 ? 次閱讀

嵌入式 AI

?1. 2023年中國人工智能產業趨勢報告

原文:

http://k.sina.com.cn/article_1716314577_664ce1d1001017mhf.html

1.概述

易觀人工智能AMC模型顯示,圖像分類與圖像語義分割類應用已經較為成熟且有著較為穩定的市場空間,文本處理、語音識別與雙模態等應用正逐漸實現對于市場的滲透。強化學習、因果學習、語言大模型等相關應用通過技術的迭代成功走出實驗室,正不斷摸索其商業模式。圖神經網絡、多模態泛化與自監督學習等應用正加速跨越從試驗研發到產業落地的難關,對擴散模型、量子AI、具身智能等的研究也將孕育智能程度更高、通用性更強的應用。建議短期關注處于市場啟動期與高速發展期之間的應用成熟情況,長期關注處于探索期與市場啟動期的應用研發進展。

aeb029ea-bf56-11ed-bfe3-dac502259ad0.jpg

2.基礎設施篇

趨勢1

人工智能發展需求將快速提升數據眾包產業規模與專業性

趨勢2

我國將形成芯片-人工智能產業內循環

趨勢3

加速對邊緣智能的探索需不同類型參與方進行緊密合作

3.算法模型篇

趨勢4

文本-圖像生成模型將出現針對細分領域需求的定制化產品

趨勢5

大規模語言模型在專業領域的商業化方向仍需持續探索

趨勢6

強化學習應用或將在科研與產業研發領域率先商業化

趨勢7

圖神經網絡各類應用的商業價值均將大幅提升

趨勢8

擴散模型將在年內應用于設計、建筑、廣告等行業

4.產業應用篇

趨勢9

產業界將出現更多結合算法模型原理進行設計的智能化應用

趨勢10

科研人工智能作為國家戰略其重要性將進一步提升

趨勢11

智能設備在工業領域的應用滲透率將快速提升

趨勢12

消費領域對行動輔助的需求或將促進相關智能設備先行發展

2. ChatGPT API 今日正式發布,中國廠商往何處去?

原文:

https://mp.weixin.qq.com/s/ClhnJZkU1P9cEGfJ7CZDHA

價格一折

OpenAI在官網發布,ChatGPT 向外界開放了API,并且開放的是已經實裝應用到 ChatGPT 產品中的 “gpt-3.5 - turbo” 模型,可以說是拿出了壓箱底的招牌武器。不僅如此,在定價上,OpenAI 僅收取每1000個 token 0.002美元的價格,是原先 GPT-3.5 模型價格的1/10。價格之低,令不少業者大跌眼鏡,以為自己小數點后多看了一個“0”。

此外,OpenAI還推出了另一個新的Whisper API,該API是由人工智能驅動的語音轉文本模型,該模型去年9月推出,并可以通過API進行使用,這也為開發者提供了更靈活的互動方式。

先前, ChatGPT 有點小貴的價格還令一些使用者頗有微詞,并且前股東馬斯克也曾多次在推特上指責 ChatGPT 閉源的行為,已經讓 OpenAI 從一家非盈利公司,變成了微軟控制下的“走狗”。而這次API發布之人們才發現,OpenAI 或許真的有著一顆“普惠”的心。

ChatGPT 為什么選擇在今天,以一個如此低廉的價格開放 API?他們直言:通過一系列系統層面的優化,12月以來,團隊將 ChatGPT 的成本降低了90%,而這些被節省了的費用,則可以被團隊用來惠及更多的開發者。

過去有消息稱,ChatGPT完成單次訓練大概需要一個月的時間,花費1200萬美元左右的成本。而訓練效率的提升,無疑使AI也完成了巨大的“降本增效”。

4天前,OpenAI的創始人——山姆·奧特曼就曾在推特上表示:一種新的摩爾定律馬上即將成為現實——每過18個月,宇宙中的智能數量就會翻上一番。

此言一出,引得業內爭議不斷。今天看來,或許是為了今天ChatGPT API 的發布造勢。

在官網中,他們寫道:“開發者們現在可以在他們的App和產品中,通過我們的 API 將 ChatGPT 整合其中。”

中國公司們準備好了嗎?

ChatGPT 開放 API利好開發者,但對那些新進加入 ChatGPT 賽道的創業者,此時也被迫感受到了一絲寒意。

入局本就落后于人,少了先發優勢,不少人團隊還沒完全建成,壯志豪言剛剛出口,而抬頭一看,ChatGPT已經一騎絕塵,想要望其項背,都還需不少苦工。

而對于大廠,OpenAI 此舉也是敲山震虎——百度、阿里這樣的大廠,想做類ChatGPT 產品,怎么才能做得比本尊更好,投入也更少?

AI科技評論認為,對于中國的廠商來說,ChatGPT 開放 API,也并不全然代表失去了未來生存和盈利的機會。

百度的“文心一言”、阿里的“通義”、華為的“盤古”、IDEA的“封神榜”、瀾舟的“孟子”、智源的“悟道”……在這個賽道上有所積累的玩家不少。技術層面,他們的路徑并不相同,實力上也各有千秋;如何完成更高效、廉價、貼合市場的工程化,是擺在他們面前“彎道超車”的絕佳機遇。

從“模型、算力、數據、場景”的四個因素角度上來看,大模型的算法壁壘,并沒有外界看來的如此不可逾越,隨著時間推移和研究進步,算法性能很可能逐漸趨同;而算力方面,則是真金白銀的投入,資本和資源的比拼。

如果拋開算法、算力兩大方面,在數據和場景上,中國廠商則有很大的優勢

IDEA研究院的講席科學家張家興博士,曾在一次演講中做過類比:投入了數百名正式員工、上千名標注員,用了3年時間,OpenAI 從 GPT-3 再到 ChatGPT,持續對一項模型進行修改,并未對模型結構進行過創新。

正如搜索引擎公司,調用數萬名員工、數千標注員,二十年如一日地打磨優化,最終只為了將引擎做得至臻至美。

大投入、長堅持,是未來一家成功AI公司,最珍貴的品質——若非如此,AI就做不好工程化落地的工作,而這也是中國AI公司面前最大的機會。

在數據上,越來越多業者發現,要用AI講好中國故事,首先需要的是中國本土原生的數據集,這樣才能更貼近中文的使用,也更貼近中國的市場環境。

如果再聊到政治環境,數據脫敏、以及對于涉黃、違法、涉政內容的風險管控,也是大模型工程化落地,所不得不關注的核心難題。

做數據集的收集,中國廠商自然近水樓臺;而到了實際操作中,中國廠商在人力資源和成本上,也相較OpenAI要更有優勢。

而尋找場景和技術產品化,更是中國廠商的強項。文章先前還提到的,那些將 ChatGPT 鏡像做成產品,賺取用戶差價的“掮客”,早在王小川、王慧文宣布入局之前,就以這種思路,賺取到了“ChatGPT”的第一桶金。

要想全民進入AIGC時代,AI產品化的進步,可以說與AI技術的進步同等重要——技術不僅要有用,還得“能用”,讓用戶用得舒服。有國內巨大市場作為后盾,AI產品一旦起勢,就很容易形成馬太效應,在用戶中形成強大的影響力。

ChatGPT如同一只鲇魚鉆進了池子,用風卷殘云之勢攪動乾坤。面臨如此強敵,中國的競爭者們也必須動起來,才能在激烈的競逐中獲得一席之地。

評價這件事時,張家興說道:“OpenAI是一群相信通用人工智能AGI會實現的人,當我們在焦慮如何做出中國ChatGPT的時候,他們已經在探索AGI的下一步,同時把當下的成熟技術推向落地,這才是ChatGPT API發布這件事情真正的含義。”

3. 微軟亞研院:Language Is Not All You Need

原文:

https://mp.weixin.qq.com/s/n7ziKJeVzEzVB1w1kpsn4g

還記得這張把谷歌AI搞得團團轉的經典梗圖嗎?

現在,微軟亞研院的新AI可算是把它研究明白了。

拿著這張圖問它圖里有啥,它會回答:我看著像鴨子。

但如果你試圖跟它battle,它就會改口:看上去更像兔子。并且還解釋得條條是道:

圖里有兔子耳朵。

af688378-bf56-11ed-bfe3-dac502259ad0.png

是不是有點能看得懂圖的ChatGPT內味兒了?

這個新AI名叫Kosmos-1,諧音Cosmos(宇宙)。AI如其名,本事確實不小:圖文理解、文本生成、OCR、對話QA都不在話下。

甚至連瑞文智商測試題都hold住了。

而具備如此能力的關鍵,就寫在論文的標題里:Language is not all you need。

多模態大語言模型

簡單來說,Kosmos-1是一種把視覺和大語言模型結合起來的多模態大語言模型。

在感知圖片、文字等不同模態輸入的同時,Kosmos-1還能夠根據人類給出的指令,以自回歸的方式,學習上下文并生成回答。

研究人員表示,在多模態語料庫上從頭訓練,不經過微調,這個AI就能在語言理解、生成、圖像理解、OCR、多模態對話等多種任務上有出色表現。

比如甩出一張貓貓圖,問它這照片好玩在哪里,Kosmos-1就能給你分析:貓貓戴上了一個微笑面具,看上去就像在笑。

afd19b06-bf56-11ed-bfe3-dac502259ad0.png

Kosmos-1的骨干網絡,是一個基于Transformer的因果語言模型。Transformer解碼器作為通用接口,用于多模態輸入。

用于訓練的數據來自多模態語料庫,包括單模態數據(如文本)、跨模態配對數據(圖像-文本對)和交錯的多模態數據。

值得一提的是,雖說“Language is not all you need”,但為了讓Kosmos-1更能讀懂人類的指示,在訓練時,研究人員還是專門對其進行了僅使用語言數據的指令調整。

具體而言,就是用(指令,輸入,輸出)格式的指令數據繼續訓練模型。

關于更多的細節,請點擊查看原文。

4. 沒錯!真·14cm制程

原文:

https://mp.weixin.qq.com/s/OW7Rsa3Oz0FcuzLt7oYOIg

兩年時間,一個90后體制內小哥下班之后只干三件私務,那就是:

手搓CPU!手搓CPU!還是***手搓CPU!

afe96574-bf56-11ed-bfe3-dac502259ad0.png

而這個小哥也不陌生,他名叫林乃衛,相信很多讀者之前也看過量子位寫的[《B站焊武帝爆火出圈:純手工拼晶體管自制CPU,耗時半年,可跑程序》

時隔一年半,如今千呼萬喚始出來,就來康康這爆肝兩年的自研CPU終極形態到底是什么?

“底層邏輯、架構、指令集均是自主研發”

話不多說,直接先來看手搓出來的“CPU終極形態”的參數如何:

  • 頻率:13kHz,超頻最大33kHz;

  • ROM:64kB,支持熱更新,16位ROM尋址、16位靜態數據尋址;

  • 內存:系統內存256B、應用內存64kB;

  • IO口數量:78bit(48支持位操作);

  • 103條指令,功耗10瓦。

做成這樣,成本統共算下來只有2000元左右,若是再刨去電烙鐵、示波器這類工具,花在基礎器件上的錢還不到1000塊

b0227bca-bf56-11ed-bfe3-dac502259ad0.png

整體性能方面,小哥表示它和70年代初期的CPU差不多,并且在指令上還要優于當時的CPU。

形象點來說,目前它可以簡單刷個屏幕,顯示文字、圖像,甚至一些小游戲(類似貪吃蛇)也能跑起來。

其實在去年7月份,小哥就已經在B站更新過一個“純手工自制CPU”的視頻,搭建的是CPU雛形,耗時6個月。

不過當時的CPU還僅處于能跑起來的階段,要運行更復雜的程序還比較困難。

于是小哥就開始了他的手搓“進階版CPU”歷程,在剛制作好的CPU雛形上進行調試維修,這一步他的計劃是:

  • 把指令增加到100多條;

  • 增加了堆棧、 IO 口,運算器的這些比較復雜一點的部件,還有內存管理;

  • 可以滿足一些復雜的運算;
    ……

這一把調試維修,直接就整了小哥一年半的時間。

為了有效提高CPU的性能,期間小哥下了“血本”購入了示波器這類專業器材,用來檢測整個CPU每一個節點的信號

然后小哥以最簡易的方式去拆除了一些器件,直接把CPU的頻率從1kHz提升到33kHz,性能翻了33倍。

話說回來,徒手搓出CPU,小哥可是完全是依靠自己本科就已經掌握的電子領域、IT領域的知識,實打實開發出來的。

從前期的電路仿真PCB設計到中后期的焊接、調試以及軟件編程……小哥一個人獨攬一條“CPU生產線”。

(聽起來就很頭疼對吧)不過這對“愛好技術類手工制作”的小哥來說可就不一樣了。

獨創技術了解一下~

看過視頻的盆友或許都知道,小哥在視頻中特別提到了自己的獨創雙通道內存

b1d4817a-bf56-11ed-bfe3-dac502259ad0.png

看看這電路圖,嗯,話不多說,各位跪好,自行搜索B站視頻觀看。

b3f7f3ba-bf56-11ed-bfe3-dac502259ad0.png

5. 大卷積模型 + 大數據集 + 有監督訓練!探尋ViT的前身:Big Transfer (BiT)

原文:https://mp.weixin.qq.com/s/tpEEIYkFO_af7NkCAFQvUw

論文地址:https://arxiv.org/pdf/1912.11370.pdf

1 ViT 的前奏:Scale up 卷積神經網絡學習通用視覺表示

1.1 背景和動機

使用深度學習實現的強大性能通常需要大量 task-specific 的數據和計算。如果每個任務都經歷這樣的過程,就會給新任務的訓練過程帶來非常高昂的代價。遷移學習提供了一種解決方案:我們可以首先完成一個預訓練 (Pre-train) 的階段,即:在一個更大的,更通用的數據集上訓練一次網絡,然后使用它的權重初始化后續任務,這些任務可以用更少的數據和更少的計算資源來解決

在本文中,作者重新審視了一個簡單的范例,即:在大型有監督數據集上進行預訓練 (注意本文是 ECCV 2020 的工作,當時的視覺模型有監督訓練還是主流) ,并在目標任務上進行微調。本文的目標不是引入一個新的模型,而是提供一個 training recipe,使用最少的 trick,也能夠在許多任務上獲得出色的性能,作者稱之為 Big Transfer (BiT)。

作者在3種不同規模的數據集上訓練網絡。最大的 BiT-L 是在 JFT-300M 數據集上訓練的,該數據集包含 300M 噪聲標記的圖片。再將 BiT 遷移到不同的下游任務上。這些任務包括 ImageNet 的 ImageNet-1K,ciremote -10/100 ,Oxford-IIIT Pet,Oxford Flowers-102,以及1000樣本的 VTAB-1k 基準。BiT-L 在許多這些任務上都達到了最先進的性能,并且在很少的下游數據可用的情況下驚人地有效。

重要的是,BiT 只需要預訓練一次,后續對下游任務的微調成本很低。BiT 不僅需要對每個新任務進行簡短的微調協議,而且 BiT 也不需要對新任務進行大量的超參數調優。作者提出了一種設置超參數的啟發式方法,在多種任務中表現得很好。除此之外,作者強調了使 Big Transfer 有效的最重要的要素,并深入了解了規模、架構訓練超參數之間的相互作用。

1.2 Big Transfer 上游任務預訓練

Big Transfer 上游預訓練第一個要素是規模 (Scale)。眾所周知,在深度學習中,更大的網絡在各自的任務上表現得更好。但是,更大的數據集往往需要更大的架構才能有收益。作者研究了計算預算 (訓練時間)*、*架構大小數據集大小之間的相互作用,在3個大型數據集上訓練了3個 BiT 模型:在 ImageNet-1K (1.3M 張圖像) 上訓練 BiT-S, 在 ImageNet-21K (14M 張圖像) 上訓練 BiT-M,在 JFT-300M (300M 張圖像) 上訓練 BiT-M。

Big Transfer 上游預訓練第二個要素是 Group Normalization[1] 和權重標準化 (Weight Standardization, WS)[2]。在大多數的視覺模型中,一般使用 BN 來穩定訓練,但是作者發現 BN 不利于 Big Transfer。

原因是:

  1. 在訓練大模型時,BN 的性能較差,或者會產生設備間同步成本。

  2. 由于需要更新運行統計信息,BN 不利于下游任務的遷移。

當 GN 與 WS 結合時,已被證明可以提高 ImageNet 和 COCO 的小 Batch 的訓練性能。本文中,作者證明了 GN 和WS 的組合對于大 Batch 的訓練是有用的,并且對遷移學習有顯著的影響。

1.3 Big Transfer 下游任務遷移

作者提出了一種適用于許多不同下游任務的微調策略。作者不去對每個任務和數據集進行昂貴的超參數搜索,每個任務只嘗試一種超參數。作者使用了一種啟發式的規則,BiT-HyperRule,選擇最重要的超參數進行調優。作者發現,為每個任務設置以下超參數很重要:訓練 Epoch、分辨率以及是否使用 MixUp 正則化。作者使用 BiT-HyperRule 處理超過20個任務,訓練集從每類1個樣本到超過1M個樣本。

在微調中,作者使用以下標準數據預處理:將圖像大小調整為一個正方形,裁剪出一個較小的隨機正方形,并在訓練時隨機水平翻轉圖像。在測試時,只將圖像調整為固定大小。這個固定大小作者設置為把分辨率提高一點,因為作者發現這樣更適合遷移學習。

此外,作者還發現 MixUp 對于預訓練 BiT 是沒有用的,可能是由于訓練數據比較豐富。但是,它有時對下游的遷移是有效的。令人驚訝的是,作者在下游調優期間不使用以下任何形式的正則化技術 (regularization):權值衰減到零、權值衰減到初始參數或者 Dropout。盡管網絡非常大,BiT 有9.28億個參數,但是卻在沒有正則化的情況下,性能驚人好。作者發現更大的數據集訓練更長的時間,可以提供足夠的正則化。

1.4 上游任務預訓練實驗設置

作者在3個大型數據集上訓練了3個 BiT 模型:在 ImageNet-1K (1.3M 張圖像) 上訓練 BiT-S, 在 ImageNet-21K (14M 張圖像) 上訓練 BiT-M,在 JFT-300M (300M 張圖像) 上訓練 BiT-M。注意:“-S/M/L”后綴指的是預訓練數據集的大小和訓練時長,而不是架構的大小。作者用幾種架構大小訓練 BiT,最大的是 ResNet152x4。

所有的 BiT 模型都使用原始的 ResNet-v2 架構,并在所有卷積層中使用 Group Normalization + Weight Standardization。

1.5 下游任務遷移實驗設置

使用的數據集分別是:ImageNet-1K, CIFAR10/100, Oxford-IIIT Pet 和 Oxford Flowers-102。這些數據集在圖像總數、輸入分辨率和類別性質方面存在差異,從 ImageNet 和 CIFAR 中的一般對象類別到 Pet 和 Flowers 中的細粒度類別。

為了進一步評估 BiT 學習到的表征的普遍性,作者在 Visual Task Adaptation Benchmark (VTAB) 上進行評估。VTAB 由19個不同的視覺任務組成,每個任務有1000個訓練樣本。這些任務被分為3組:natural, specialized and structured,VTAB-1k 分數是這19項任務的平均識別表現。

下游任務遷移實驗中,大多數的超參數在所有數據集中都是固定的,但是訓練長度、分辨率和 MixUp 的使用取決于任務圖像分辨率和訓練集大小。

1.6 標準計算機視覺 Benchmark 實驗結果

作者在標準基準上評估 BiT-L,對比的結果主要有2類:Generalist SOTA 指的是執行任務獨立的預訓練的結果,Specialist SOTA 指的是對每個任務分別進行預訓練的結果。Specialist 的表征是非常有效的,但每個任務需要大量的訓練成本。相比之下,Generalist 的表征只需要一次大規模的訓練,然后就只有一個廉價的微調階段。

b4135da8-bf56-11ed-bfe3-dac502259ad0.jpg

受到在 JFT-300M 上訓練 BiT-L 的結果的啟發,作者還在公開的 ImageNet-21K 數據集上訓練模型。對于 ImageNet-1K 這種大規模的數據集,有一些眾所周知的,穩健的訓練過程。但對于 ImageNet-21K 這種超大規模的數據集,有14,197,122張訓練數據,包含21841個類別,在2020年,對于如此龐大的數據集,目前還沒有既定的訓練程序,本文作者提供了一些指導方針如下:

  • 訓練時長:增加訓練時長和預算。

  • 權重衰減:較低的權重衰減可以導致明顯的加速收斂,但是模型最終性能不佳。這種反直覺的行為源于權值衰減和歸一化層的相互作用。weight decay 變低之后,導致權重范數的增加,這使得有效學習率下降。這種效應會給人一種更快收斂的印象,但最終會阻礙進一步的進展。為了避免這種影響,需要一個足夠大的權值衰減,作者在整個過程中使用10?4。

如下圖2所示是與 ImageNet-1K 相比,在 ImageNet-21K 數據集上進行預訓練時提高了精度,兩種模型都是 ResNet152x4。

b433e87a-bf56-11ed-bfe3-dac502259ad0.png

1.7 單個數據集更少數據的實驗結果

作者研究了成功轉移 BiT-L 所需的下游數據的數量。作者使用 ImageNet-1K、CIFAR-10 和 CIFAR-100 的子集傳輸BiT-L,每個類減少到1個訓練樣本。作者還對19個 VTAB-1K 任務進行了更廣泛的評估,每個任務有1000個訓練樣本。實驗結果如下圖3所示,令人驚訝的是,即使每個類只有很少的樣本,BiT-L 也可以表現出強大的性能,并迅速接近全數據集的性能。特別是,在 ImageNet-1K 上,每個類只有5個標記樣本時,其 top-1 的準確度達到 72.0%,而在100個樣本時, top-1 的準確度達到 84.1%。在 CIFAR-100 中,我們每個類只有10個樣本, top-1 的準確度達到 82.6%。

b44f0d8a-bf56-11ed-bfe3-dac502259ad0.png

如下圖4所示是 BiT-L 在19個 VTAB-1k 任務上的性能。在研究 VTAB-1k 任務子集的性能時,BiT 在 natural, specialized 和 structured 任務上是最好的。在上游預訓練期間使用視頻數據的 VIVIEx-100% 模型在結構化任務上展示出非常相似的性能。

b474c80e-bf56-11ed-bfe3-dac502259ad0.png

1.8 ObjectNet:真實世界數據集的實驗結果

ObjectNet 數據集是一個僅包含測試集的,非常類似于現實場景的數據集,總共有313個類,其中113個與ImageNet-1K 重疊。實驗結果如圖5所示,更大的結構和對更多數據的預訓練可以獲得更高的準確性。作者還發現縮放模型對于實現 80% top-5 以上的精度非常重要。

b49bfc12-bf56-11ed-bfe3-dac502259ad0.jpg

1.9 目標檢測實驗結果

數據集使用 COCO,檢測頭使用 RetinaNet,使用預訓練的 BiT 模型 ResNet-101x3 作為 Backbone,如下圖6所示是實驗結果。BiT 模型優于標準 ImageNet 預訓練的模型,可以看到在 ImageNet-21K 上進行預訓練,平均精度 (AP) 提高了1.5個點,而在 JFT-300M 上進行預訓練,則進一步提高了0.6個點。

b4e262e2-bf56-11ed-bfe3-dac502259ad0.jpg

總結

本文回顧了在大數據集上進行預訓練的范式,并且提出了一種簡單的方法 Scale up 了預訓練的數據集,得到的模型獲得了很好的下游任務的性能,作者稱之為 Big Transfer (BiT)。通過組合幾個精心的組件,訓練和微調的策略,并使用簡單的遷移學習方法平衡復雜性和性能,BiT 在超過20個數據集上實現了強大的性能。

6. 神經網絡INT8量化部署實戰教程

原文:

https://mp.weixin.qq.com/s/oxHnjABZG2xdsEFSfcJYqQ

開篇

剛開始接觸神經網絡量化是2年前那會,用NCNN和TVM在樹莓派上部署一個簡單的SSD網絡。那個時候使用的量化腳本是參考于TensorRT和NCNN的PTQ量化(訓練后量化)模式,使用交叉熵的方式對模型進行量化,最終在樹莓派3B+上部署一個簡單的分類模型(識別剪刀石頭布靜態手勢)。

轉眼間過了這么久啦,神經網絡量化應用已經完全實現大面積落地了、相比之前成熟多了!

我工作的時候雖然也簡單接觸過量化,但感覺還遠遠不夠,趁著最近項目需要,重新再學習一下,也打算把重新學習的路線寫成一篇系列文,分享給大家。

本篇系列文的主要內容計劃從頭開始梳理一遍量化的基礎知識以及代碼實踐。因為對TensorRT比較熟悉,會主要以TensorRT的量化方式進行描述以及講解。不過TensorRT由于是閉源工具,內部的實現看不到,咱們也不能兩眼一抹黑。所以也打算參考Pytorch、NCNN、TVM、TFLITE的量化op的現象方式學習和實踐一下。

當然這只是學習計劃,之后可能也會變動。對于量化我也是學習者,既然要用到這個技術,必須要先理解其內部原理。而且接觸了挺長時間量化,感覺這里面學問還是不少。好記性不如爛筆頭,寫點東西記錄下,也希望這系列文章在能夠幫助大家的同時,拋磚引玉,一起討論、共同進步。

參考了以下關于量化的一些優秀文章,不完全統計列了一些,推薦感興趣的同學閱讀:

  • 神經網絡量化入門--基本原理(https://zhuanlan.zhihu.com/p/149659607)

  • 從TensorRT與ncnn看卷積網絡int8量化(https://zhuanlan.zhihu.com/p/387072703)

  • 模型壓縮:模型量化打怪升級之路 - 1 工具篇(https://zhuanlan.zhihu.com/p/355598250)

  • NCNN Conv量化詳解(一)(https://zhuanlan.zhihu.com/p/71881443)

當然在學習途中,也認識了很多在量化領域經驗豐富的大佬(田子宸、JermmyXu等等),嗯,這樣前進路上也就不孤單了。

OK,廢話不多說開始吧。

Why量化

我們都知道,訓練好的模型的權重一般來說都是FP32也就是單精度浮點型,在深度學習訓練和推理的過程中,最常用的精度就是FP32。當然也會有FP64、FP16、BF16、TF32等更多的精度:

b4f38cca-bf56-11ed-bfe3-dac502259ad0.jpg

FP32 是單精度浮點數,用8bit 表示指數,23bit 表示小數;FP16半精度浮點數,用5bit 表示指數,10bit 表示小數;BF16是對FP32單精度浮點數截斷數據,即用8bit 表示指數,7bit 表示小數。TF32 是一種截短的 Float32 數據格式,將 FP32 中 23 個尾數位截短為 10 bits,而指數位仍為 8 bits,總長度為 19 (=1 + 8 + 10) bits。

對于浮點數來說,指數位表示該精度可達的動態范圍,而尾數位表示精度。之前的一篇文章中提到,FP16的普遍精度是~5.96e?8 (6.10e?5) … 65504,而我們模型中的FP32權重有部分數值是1e-10級別。這樣從FP32->FP16會導致部分精度丟失,從而模型的精度也會下降一些。

b51119c0-bf56-11ed-bfe3-dac502259ad0.jpg

其實從FP32->FP16也是一種量化,只不過因為FP32->FP16幾乎是無損的(CUDA中使用__float2half直接進行轉換),不需要calibrator去校正、更不需要retrain

而且FP16的精度下降對于大部分任務影響不是很大,甚至有些任務會提升。NVIDIA對于FP16有專門的Tensor Cores可以進行矩陣運算,相比FP32來說吞吐量提升一倍。

b527a302-bf56-11ed-bfe3-dac502259ad0.jpg

實際點來說,量化就是將我們訓練好的模型,不論是權重、還是計算op,都轉換為低精度去計算。因為FP16的量化很簡單,所以實際中我們談論的量化更多的是INT8的量化,當然也有3-bit、4-bit的量化,不過目前來說比較常見比較實用的,也就是INT8量化了,之后的重點也是INT8量化。

那么經過INT8量化后的模型:

  • 模型容量變小了,這個很好理解,FP32的權重變成INT8,大小直接縮了4倍

  • 模型運行速度可以提升,實際卷積計算的op是INT8類型,在特定硬件下可以利用INT8的指令集去實現高吞吐,不論是GPU還是INTELARM等平臺都有INT8的指令集優化

  • 對于某些設備,使用INT8的模型耗電量更少,對于嵌入式側端設備來說提升是巨大的

所以說,隨著我們模型越來越大,需求越來越高,模型的量化自然是少不了的一項技術。

如果你擔心INT8量化對于精度的影響,我們可以看下NVIDIA量化研究的一些結論:b544e552-bf56-11ed-bfe3-dac502259ad0.jpg

量化現狀

量化技術已經廣泛應用于實際生產環境了,也有很多大廠開源了其量化方法。不過比較遺憾的是目前這些方法比較瑣碎,沒有一套比較成熟比較完善的量化方案,使用起來稍微有點難度。不過我們仍可以從這些框架中學習到很多。

Google

谷歌是比較早進行量化嘗試的大廠了,感興趣的可以看下Google的白皮書Quantizing deep convolutional networks for efficient inference: A whitepaper以及Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference

TensorFlow很早就支持了量化訓練,而TFLite也很早就支持了后訓練量化,感興趣的可以看下TFLite的量化規范 (https://www.tensorflow.org/lite/performance/quantization_spec) ,目前TensorRT支持TensorFlow訓練后量化的導出的模型。

TensorRT

TensorRT在2017年公布了自己的后訓練量化方法,不過沒有開源,NCNN按照這個思想實現了一個,也特別好用。不過目前TensorRT8也支持直接導入通過ONNX導出的QTA好的模型,使用上方便了不少,之后會重點講下。

b578e406-bf56-11ed-bfe3-dac502259ad0.png

TVM

TVM有自己的INT8量化操作,可以跑量化,我們也可以添加自己的算子。不過TVM目前只支持PTQ,可以通過交叉熵或者percentile的方式進行校準。不過如果動手能力強的話,應該可以拿自己計算出來的scale值傳入TVM去跑,應該也有人這樣做過了。

比較有參考意義的一篇:

  • ViT-int8 on TVM:提速4.6倍,比TRT快1.5倍(https://zhuanlan.zhihu.com/p/365686106)

當然還有很多優秀的量化框架,想看詳細的可以看這篇(https://zhuanlan.zhihu.com/p/355598250),后續如果涉及到具體知識點也會再提到。

更多關于量化的基礎理論和技巧,請點擊原文查看。

———————End———————

你可以添加微信:rtthread2020 為好友,注明:公司+姓名,拉進RT-Thread官方微信交流群!

點擊閱讀原文

愛我就請給我在看


原文標題:【AI簡報20230304期】 ChatGPT API 正式發布、2023年中國人工智能產業趨勢報告

文章出處:【微信公眾號:RTThread物聯網操作系統】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • RT-Thread
    +關注

    關注

    31

    文章

    1304

    瀏覽量

    40298

原文標題:【AI簡報20230304期】 ChatGPT API 正式發布、2023年中國人工智能產業趨勢報告

文章出處:【微信號:RTThread,微信公眾號:RTThread物聯網操作系統】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    云知聲榮膺2024胡潤中國人工智能企業50強

    近日,胡潤研究院發布了《2024胡潤中國人工智能企業50強》榜單,云知聲憑借其在人工智能領域的卓越創新和智能體(Agent)商業化能力榮耀上榜。
    的頭像 發表于 01-16 10:02 ?127次閱讀

    思必馳入選2024胡潤中國人工智能企業50強

    近日,胡潤研究院發布《2024胡潤中國人工智能企業50強》榜單,該榜單旨在尋找最具價值的AI企業。
    的頭像 發表于 01-14 14:54 ?281次閱讀

    燧原科技亮相2024中國人工智能大會

    近日,燧原科技創新研究院首席研究員石恒博士受邀在2024中國人工智能大會的“AI芯片與智能計算創新生態”專題論壇上,發表了《面向AI芯片的高性能計算核領域特定語言探索》的主題演講。
    的頭像 發表于 12-19 13:58 ?236次閱讀

    華為推動中國人工智能框架生態高速發展

    近日,昇思人工智能框架峰會在北京中關村國際創新中心召開,本次大會以“創新源動力,框架新選擇”為主題,由昇思MindSpore開源社區、中國人工智能學會及AITISA聯合主辦,旨在匯聚AI產業
    的頭像 發表于 12-17 11:06 ?317次閱讀

    軟通動力入選《人工智能數據標注產業圖譜》

    近日,由中國信息通信研究院、中國人工智能產業發展聯盟牽頭,聯合中國電信集團、沈陽市數據局、保定高新區等70多家單位編制完成并發布了《
    的頭像 發表于 12-03 10:18 ?191次閱讀

    2025 福布斯中國人工智能科技企業 TOP 50 評選正式啟動

    進一步強化了對AI及其相關產業的指引和投入,并獲得了豐碩的成果。據《中國新一代人工智能科技產業發展報告
    的頭像 發表于 11-16 13:19 ?265次閱讀
    2025 福布斯<b class='flag-5'>中國人工智能</b>科技企業 TOP 50 評選正式啟動

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅動科學創新

    AI for Science的基礎知識,梳理了產業地圖,并給出了相關政策啟示。 內容提要 人工智能驅動科學創新(AI for Science)帶來的
    發表于 09-09 13:54

    報名開啟!深圳(國際)通用人工智能大會將啟幕,國內外大咖齊聚話AI

    8月28日至30日,2024深圳(國際)通用人工智能大會暨深圳(國際)通用人工智能產業博覽會將在深圳國際會展中心(寶安)舉辦。大會以“魅力AI·無限未來”為主題,致力于打造全球通用
    發表于 08-22 15:00

    達闥機器人榮登“2024福布斯中國人工智能科技企業TOP 50”

    在經歷了長達7個月的激烈角逐和全面深入的行業分析后,福布斯中國發布了備受矚目的“2024福布斯中國人工智能科技企業TOP 50”榜單。
    的頭像 發表于 05-20 11:50 ?1504次閱讀
    達闥機器人榮登“2024福布斯<b class='flag-5'>中國人工智能</b>科技企業TOP 50”

    Nullmax榮登「中國人工智能與大數據產業最佳投資案例TOP10」榜單

    5月10日,“投中榜·2023度榜單”重磅揭曉。自動駕駛行業智變引領者Nullmax 憑借領先的技術實力、突出的量產表現及巨大的商業潛力,榮登「中國人工智能與大數據產業最佳投資案例
    的頭像 發表于 05-11 17:32 ?609次閱讀
    Nullmax榮登「<b class='flag-5'>中國人工智能</b>與大數據<b class='flag-5'>產業</b>最佳投資案例TOP10」榜單

    愛芯元智榮登“2024福布斯中國人工智能科技企業TOP 50”榜單

    4月28日,“2024福布斯中國人工智能科技企業評選”結果正式發布,展示人工智能領域中取得斐然成績的標桿企業及人物。
    的頭像 發表于 04-29 15:53 ?1221次閱讀
    愛芯元智榮登“2024福布斯<b class='flag-5'>中國人工智能</b>科技企業TOP 50”榜單

    云天勵飛榮譽入選“2024福布斯中國人工智能科技企業”

    4月28日,“2024福布斯中國人工智能科技企業評選”結果正式發布,云天勵飛榮譽入選。同時,云天勵飛董事長兼CEO陳寧博士還入選“人工智能影響力人物”。
    的頭像 發表于 04-29 14:17 ?525次閱讀
    云天勵飛榮譽入選“2024福布斯<b class='flag-5'>中國人工智能</b>科技企業”

    2024中國AI大模型產業發展報告

    日前,人民網財經研究院、至頂科技聯合發布《開啟智能新時代:2024年中國AI大模型產業發展報告
    的頭像 發表于 03-30 08:26 ?837次閱讀
    2024<b class='flag-5'>中國</b><b class='flag-5'>AI</b>大模型<b class='flag-5'>產業</b>發展<b class='flag-5'>報告</b>

    在FPGA設計是否可以應用ChatGPT生成想要的程序呢

    當下AI人工智能崛起,很多開發領域都可看到ChatGPT的身影,FPGA設計,是否也可以用ChatGPT輔助設計呢?
    發表于 03-28 23:41

    2024 人工智能安全報告

    近日,奇安信集團對外發布《2024人工智能安全報告》(以下簡稱《報告》)。據悉,這是我國首份人工智能安全
    的頭像 發表于 03-15 08:26 ?638次閱讀
    2024 <b class='flag-5'>人工智能</b>安全<b class='flag-5'>報告</b>
    主站蜘蛛池模板: 男女午夜性爽快免费视频不卡| 暖暖高清视频免费| 一本道无码v亚洲| 中文无码热在线视频| 精品国产午夜肉伦伦影院| 无套内射CHINESEHD| 又黄又猛又爽大片免费| 狠狠色狠狠色综合日日32| 美女张开大腿| 亚洲国产精品一区二区动图 | 男女XX00上下抽搐动态图| 亚洲视频91| 久久亚洲精品AV无码四区| 伊人22222| 恋老视频 国产国佬| 91精品乱码一区二区三区| 蜜柚免费视频高清观看在线| 99热6精品视频6| 国产制服丝袜91在线| 欧美男同gay粗大又长| 超碰v| 私人玩物黑丝| 99久久999久久久综合精品涩| 男人插曲女人的叫声| 抽插内射高潮呻吟V杜V| 香港论理午夜电影网| 狠狠综合久久综合88亚洲| 中文字幕在线观看国产| 日本漫画无彩翼漫画| 97午夜理论片影院在线播放| 青青草原亚洲| 国产精品久久久久久久AV下载| 99欧美精品| 嗯啊插的好深啊使劲抽视频| 99视频免费在线观看| 肉伦禁忌小说np| 99欧美精品| 污到湿的爽文免费阅读| 久久国产欧美日韩精品免费| gay台湾无套男同志xnxⅹ| 蜜芽国产在线精品欧美|