CEVA宣布其獲獎的CEVA深度神經(jīng)網(wǎng)絡(luò)(CDNN) 編譯器的最新版本支持開放式神經(jīng)網(wǎng)絡(luò)交換Open Neural Network Exchange(ONNX)格式。
CEVA副總裁兼視覺業(yè)務(wù)部門總經(jīng)理Ilan Yona 表示:“CEVA全力確保實現(xiàn)開放、可互操作的AI生態(tài)系統(tǒng),人工智能應(yīng)用程序開發(fā)人員能夠充分利用生態(tài)系統(tǒng)中各種不同深度學(xué)習(xí)框架,考慮其功能和易用性,為所需特定應(yīng)用選擇最合適的深度學(xué)習(xí)框架。通過為CDNN編譯器技術(shù)添加ONNX支持,我們?yōu)镃EVA-XM和NeuPro的客戶及生態(tài)系統(tǒng)合作伙伴提供了更廣泛的功能,用于培訓(xùn)和豐富其神經(jīng)網(wǎng)絡(luò)應(yīng)用。”
ONNX是由Facebook、微軟和AWS創(chuàng)建的開放格式,用于實現(xiàn)AI社群內(nèi)的互操作性和可移植性,可讓開發(fā)人員針對項目使用合適的工具組合,而不會被任何一個框架或生態(tài)系統(tǒng)“鎖定”。ONNX標(biāo)準(zhǔn)確保了不同深度學(xué)習(xí)框架之間的互操作性,容許開發(fā)人員完全自由地選用任何機器學(xué)習(xí)框架來訓(xùn)練其神經(jīng)網(wǎng)絡(luò),然后使用另一個AI框架進(jìn)行部署。現(xiàn)在,通過CDNN神經(jīng)網(wǎng)絡(luò)編譯器的對ONNX的支持,開發(fā)人員可以導(dǎo)入以任何ONNX兼容框架生成的模型,并將之部署在CEVA-XM視覺DSP和NeuPro AI處理器上。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報投訴
-
神經(jīng)網(wǎng)絡(luò)
-
編譯器
-
生態(tài)系統(tǒng)
原文標(biāo)題:CEVA為CDNN神經(jīng)網(wǎng)絡(luò)編譯器增添ONNX支持
文章出處:【微信號:CEVA-IP,微信公眾號:CEVA】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
相關(guān)推薦
在深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)
發(fā)表于 11-15 14:53
?686次閱讀
殘差網(wǎng)絡(luò)(Residual Network,通常簡稱為ResNet) 是深度神經(jīng)網(wǎng)絡(luò)的一種 ,其獨特的結(jié)構(gòu)設(shè)計在解決深層網(wǎng)絡(luò)訓(xùn)練中的梯度消失和梯度爆炸問題上取得了顯著的突破,并因此成為
發(fā)表于 07-11 18:13
?1161次閱讀
BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及未來發(fā)展等多個方面,詳細(xì)闡述BP
發(fā)表于 07-10 15:20
?1256次閱讀
RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
發(fā)表于 07-05 09:52
?627次閱讀
遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)實際上是同一個概念,只是不同的翻譯方式
發(fā)表于 07-04 14:54
?853次閱讀
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中兩種非常重要的神經(jīng)網(wǎng)絡(luò)
發(fā)表于 07-04 14:24
?1455次閱讀
在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指傳統(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時,我們需
發(fā)表于 07-04 13:20
?1023次閱讀
在深度學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks, RNN)是兩種極其重要
發(fā)表于 07-03 16:12
?3609次閱讀
反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network,簡稱BP神經(jīng)網(wǎng)絡(luò))是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法來調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,以達(dá)到最小化誤差的
發(fā)表于 07-03 11:00
?853次閱讀
BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種常見的前饋神經(jīng)網(wǎng)絡(luò),它使用反向傳播算法來訓(xùn)練網(wǎng)絡(luò)。雖然BP神經(jīng)網(wǎng)絡(luò)在某些方面與
發(fā)表于 07-03 10:14
?928次閱讀
BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò),它們在
發(fā)表于 07-03 10:12
?1314次閱讀
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、語音識別、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的原理,包括其
發(fā)表于 07-02 14:44
?764次閱讀
化能力。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)已經(jīng)成為人工智能領(lǐng)域的重要技術(shù)之一。卷積神經(jīng)網(wǎng)絡(luò)和BP神經(jīng)
發(fā)表于 07-02 14:24
?4620次閱讀
模型: 多層感知器(Multilayer Perceptron,MLP): 多層感知器是最基本的深度神經(jīng)網(wǎng)絡(luò)模型,由多個全連接層組成。每個隱藏層的神
發(fā)表于 07-02 10:00
?1589次閱讀
神經(jīng)網(wǎng)絡(luò)架構(gòu)是機器學(xué)習(xí)領(lǐng)域中的核心組成部分,它們模仿了生物神經(jīng)網(wǎng)絡(luò)的運作方式,通過復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)實現(xiàn)信息的處理、存儲和傳遞。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,各種
發(fā)表于 07-01 14:16
?830次閱讀
評論