數據處理當然不是一個新概念,算法也不是。然而,算法被訓練和運行的地方正在迅速發展。近年來,機器學習(ML)算法的訓練基本上是在云環境中進行的,因為能夠利用臨時計算資源來執行這些數據密集型任務。
如今,人們大力推動盡可能靠近源頭處理數據。這是由于物聯網(IoT)和現在正在生成大量數據的各種技術的出現。所有這些數據都讓組織爭先恐后地以經濟高效的方式充分利用它。組織需要考慮從原始源到處理位置的數據傳輸成本,以及存儲和處理數據的成本,這通常是在資源密集型服務器/云環境中。
人工智能 (AI) 技術開始出現,可以在低計算功率設備(如基于 ESP32 和 Cortex M4 的微控制器單元 (MCU))上實現 ML 模型訓練和執行,而不是更大的微處理器單元 (MPU)。這允許數據保持本地,并且僅在必要時在云中傳輸已處理的數據。
通過將訓練和運行 ML 模型的總體占用空間要求降低到 100kb 以下,嵌入式計算中的 AI 正在進入一個新的領域。例如,與合并排序算法相比,嵌入式算法工程師更歡迎氣泡排序算法,因為前者使用現有內存。盡管已經存在許多算法,但正在針對嵌入式環境開發和優化新的基于AI的時間序列預測算法。通過這種新方法,AI/ML模型在嵌入式板上進行訓練。然后,這些模型用于在執行期間執行多變量統計推斷。
這些新的基于AI的時間序列預測算法有三個優點:
該解決方案與網絡延遲無關,因為計算是在本地板上進行的,因此性能得到了提高。
原始數據的安全/隱私得到保證,因為原始信號/數據只出現在本地。
對于每個嵌入式板,都會訓練一個新的 ML/AI 模型。這可能是這種方法的核心優勢,因為在典型的工業案例中,由于環境變體、傳感器的缺陷和機器變體,不可能使用單個 ML/AI 模型來覆蓋機器特征集群。使用云服務器為每個嵌入式板訓練模型也不是負擔得起的。
技術突破
算法在嵌入式計算中發揮著重要作用。通常,嵌入式設備執行的算法任務包括傳感器數據清理/過濾、數據編碼/解碼和控制信號生成。由于內存容量、CPU 功率和架構不同,嵌入式計算環境中“最佳算法”的定義可能與 PC 和云服務器中“最佳算法”的定義大不相同。
在過去的幾年里,AI/ML算法取得了突破和非常迅速的進步。許多努力都集中在將AI / ML模型(這些模型在其他地方訓練)引入嵌入式上下文。換句話說,要成功部署 AI/ML 模型,需要優化算法的內存/CPU 使用率和功耗。
人工智能正在縮小,可以運行這些高級算法。技術進步現在允許人工智能和預測性維護從基于 MPU 的設備轉向基于 MCU 的設備,占用空間小,價格顯著降低。基于 MCU 的設備現在可以在網絡邊緣執行以前僅在 MPU 上提供的任務(例如預測性維護)。這一新功能使芯片制造商、原始設備制造商 (OEM) 和智能設備制造商能夠降低成本并提供差異化的產品。
審核編輯:郭婷
-
處理器
+關注
關注
68文章
19404瀏覽量
230880 -
mcu
+關注
關注
146文章
17316瀏覽量
352318 -
物聯網
+關注
關注
2913文章
44915瀏覽量
376134
發布評論請先 登錄
相關推薦
評論