人工智能(AI)和機器學習(ML)是使系統能夠從數據中學習,進行推斷并隨著時間的推移提高其性能的關鍵技術。這些技術通常用于大型數據中心和功能強大的GPU,但是將它們部署在資源有限的設備(如微控制器MCU)上的需求越來越大。
在本博客中,Silicon Labs(亦稱“芯科科技”)產品營銷高級經理Gopinath Krishniah先生將帶您探究MCU技術和AI/ML的交叉與匯合,以及它如何影響低功耗邊緣設備的發展;同時將討論在電池供電設備的MCU上運行AI的困難、創新和實際用例,并進一步介紹芯科科技專為邊緣智能開發所提供全套MCU+AI/ML工具的解決方案。
AI/ML和MCU概述
人工智能創造的計算機系統可以完成類似人類的任務,比如理解語言、尋找模式和做決定。機器學習是人工智能的一個子集,涉及使用算法,讓計算機從數據中學習,并隨著時間的推移變得更好。機器學習模型可以找到模式,排序對象,并從示例中預測結果。
mcu在使AI和ML在邊緣設備上成為可能方面發揮著重要作用。
基于MCU運行的邊緣AI/ML用例包括:
關鍵字識別:識別特定的單詞或短語(例如,語音命令),而不需要云連接。
傳感器融合:結合來自多個傳感器的數據,做出比單一傳感器解決方案更明智的決策。
異常檢測:檢測傳感器數據中的異常值或異常模式,可能表明故障,錯誤或威脅,用于預測性維護或質量控制。
目標檢測:在攝像機或其他傳感器捕獲的圖像或視頻中識別和定位感興趣的對象(例如,人臉、行人、車輛)。
手勢識別:在攝像機或其他傳感器捕獲的圖像或視頻中解釋人類手勢(如手部動作、面部表情、身體姿勢),以改善人機交互。
AI/ML在MCU上的挑戰
深度學習模型,特別是深度神經網絡(DNN),已經成為計算機視覺和自然語言處理等復雜任務中不可或缺的一部分。然而,它們的計算需求是巨大的。這種資源密集型模型對于日常設備來說是不切實際的,尤其是那些由邊緣設備中的低功耗MCU供電的設備。深度學習模型復雜性的增長是必然的,隨著深度神經網絡變得越來越復雜,它們的尺寸會膨脹,使它們與MCU上有限的可用計算資源不兼容。
什么是TinyML?
TinyML指的是為在資源受限的設備上部署而優化的機器學習模型和技術。這些設備在邊緣運行,在那里生成數據,并在本地執行推理。TinyML系統通常運行在低功耗MCU上,對節點本地收集的數據執行推斷。推理是人工智能模型的關鍵時刻,測試它在訓練中所學知識的應用能力。本地推理使MCU能夠直接執行AI模型,在不依賴外部服務器或云服務的情況下做出實時決策。
在AI/ML環境中,局部推理至關重要,原因如下:
資源限制:許多嵌入式設備,特別是那些使用電池供電的設備,資源有限,例如內存、處理能力和能源效率。傳統的通用微控制器由于其有限的處理能力和內存、有限的能源資源或缺乏片上加速而難以有效地執行人工智能任務。本地推理允許這些資源受限的設備在不消耗過多功率的情況下執行AI工作負載,以提高效率和性能。
用戶體驗增強:考慮一個例子-支持人工智能的電子Cat Flap。通過訓練它區分貓和其他物體,它可以只為被授權的貓開門。在這里,本地推理通過確保安全性和便利性來改善用戶體驗,而不需要諸如RFID項圈之類的額外硬件。
效率和性能:GPU通常用于大規模人工智能部署,因為它們可以并行執行許多流程,這對于有效的人工智能訓練至關重要。然而,對于小型嵌入式應用來說,GPU的成本很高,并且超出了功率預算。AI優化的MCU具有專門的架構,通過為AI工作負載提供更好的性能和功率效率來實現平衡。芯科科技提供的新型無線SoC和MCU中已包括一個矩陣矢量處理器,作為其AI/ML支持的一部分。這種專門的硬件加速器旨在增強AI/ML算法或矢量數學運算的性能,以縮短推理時間并以更低的功耗執行這些關鍵任務。
總之,邊緣的本地推理可以實現實時決策,減少延遲,增強安全性,使電池供電的設備具有人工智能功能,并增強用戶體驗,使其成為現代計算系統的關鍵組成部分,同時滿足資源限制。
芯科科技前沿的AI/ML解決方案
芯科科技作為智能、安全物聯網無線連接領域的開拓者,正在致力于將AI/ML帶到邊緣。我們對創新的承諾導致了開創性的解決方案,它賦予資源受限的設備如MCU具備更豐富的智能功能。
針對TinyML進行優化的設備
EFR32xG24、EFR32xG28和EFR32xG26等無線MCU系列產品均結合了78 MHz的ARM-M33處理器、高性能無線電、精密模擬性能,以及一個AI/ML硬件加速器,給開發人員一個靈活的平臺,用于部署邊緣智能。同時,這些產品還支持廣泛的物聯網無線協議,提供最高的安全性與最佳的RF性能/能效比的組合。
現今的開發人員經常被迫為在邊緣部署人工智能/ ML而付出許多精力。xG24、xG28和xG26使用專用的AI/ML加速器,可以大幅降低整體設計復雜性,助力開發人員更快實現產品原型。專門的硬件設計對于處理復雜的計算可提高8倍的推理速度,以及在能源效率上改進了6倍;這與基于固件和云計算的解決方案相比,可提供更高的性能和效益。硬件加速器的使用將從主應用程序MCU中觸發的負擔卸下了更多的時鐘周期,從而服務您的應用程序。
簡化AI/ML開發的工具
構建、測試和部署機器學習所需算法的工具與運行這些算法的MCU一樣重要。通過與TensorFlow、SensiML和EdgeImpulse等TinyML領域的領導者合作,芯科科技為初學者和專家提供了多種開發工具的選擇。使用這個新的AI/ML工具鏈和芯科科技的SimplicityStudio開發環境,開發人員可以創建應用程序,從各種連接的設備中提取信息,以做出智能的機器學習驅動的決策。
芯科科技提供各種工具和資源來支持ML應用程序:
ML應用:開發平臺支持TinyML模型推理,由TensorFlow Lite forMicrocontrollers (TFLM)框架支持。存儲庫包含一組利用ML的嵌入式應用程序。
機器學習工具包(MLTK):這是一個帶有命令行實用程序和腳本的Python包,可幫助為芯科科技的嵌入式平臺開發機器學習模型。它包括從命令行界面或Python腳本執行機器學習操作的功能,確定機器學習模型在嵌入式平臺上的執行效率,以及使用Google TensorFlow訓練機器學習模型。
芯科科技還提供一個TinyML解決方案,作為機器學習工具包的一部分。該工具包包括TinyML基準測試使用的幾個模型。這些模型可以在芯科科技GitHub上找到,包括異常檢測、圖像分類和關鍵字識別。
AI/ML驅動的邊緣設備為我們與周圍環境的互動開辟了新的視野,它們將很快以驚人的方式改變我們的生活。芯科科技處于TinyML創新的最前沿,使其能夠將這些功能以前所未有的方式帶入低功耗,連接的邊緣設備。
-
微控制器
+關注
關注
48文章
7572瀏覽量
151642 -
mcu
+關注
關注
146文章
17185瀏覽量
351711 -
嵌入式系統
+關注
關注
41文章
3605瀏覽量
129569 -
AI
+關注
關注
87文章
31155瀏覽量
269483
原文標題:行業前沿的MCU + AI/ML開發工具彌合智能和嵌入式系統之間的差距
文章出處:【微信號:SiliconLabs,微信公眾號:Silicon Labs】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論