項目背景
我們正面臨著越來越多的嵌入機器學習革命。而當我們談到機器學習(ML)時,首先想到的就是圖像分類,一種 ML Hello World!
ESP32-CAM 是最受歡迎且價格合理的已集成攝像頭的開發板之一,它結合了 Espressif ESP32-S MCU 芯片和 ArduCam OV2640 攝像頭。
ESP32 芯片功能強大,甚至可以處理圖像。它包括 I2C、SPI、UART 通信以及 PWM 和 DAC 輸出。
參數:
工作電壓:4.75-5.25V
飛濺:默認 32Mbit
RAM:內部 520KB + 外部 8MB PSRAM
無線網絡:802.11b/g/n/e/i
藍牙:藍牙 4.2BR/EDR 和 BLE 標準
支持接口(2Mbps):UART、SPI、I2C、PWM
IO口:9
串口速率:默認115200bps
頻譜范圍:2400 ~2483.5MHz
圖像輸出格式:JPEG(僅支持OV2640)、BMP、GRAYSCALE
下面,一般電路板引腳排列:
請注意,此設備沒有集成 USB-TTL 串行模塊,因此要將代碼上傳到 ESP32-CAM 需要一個特殊的適配器,如下所示:
或 USB-TTL 串行轉換適配器如下:
如果你想了解 ESP32-CAM,我強烈推薦Rui Santos 的書籍和教程。
在 Arduino IDE 上安裝 ESP32-Cam
從 Arduino IDE 打開首選項窗口并轉到:Arduino 》偏好
使用以下行輸入:
https://dl.espressif.com/dl/package_esp32_index.json
在 Additional Board Manager URLs 中輸入下圖內容
接著,打開 boards manager,轉到Tools 》 Board 》 Boards Manager.。。并使用esp32 輸入。選擇并安裝最新的軟件包
選擇 ESP32 開發板:
例如,AI-Thinker ESP32-CAM
最后別忘記選擇連接 ESP32-Cam的端口。
這就對了!設備應該沒問題。讓我們做一些測試。
用 BLINK 測試電路板
ESP32-CAM 有一個與 GPIO33 連接的內置 LED。因此,相應地更改 Blink 草圖:
#define LED_BUILT_IN 33 void setup() { pinMode(LED_BUILT_IN, OUTPUT); // Set the pin as output } // Remember that the pin work with inverted logic // LOW to Turn on and HIGH to turn off void loop() { digitalWrite(LED_BUILT_IN, LOW); //Turn on delay (1000); //Wait 1 sec digitalWrite(LED_BUILT_IN, HIGH); //Turn off delay (1000); //Wait 1 sec } |
特別提醒,LED 位于電路板下方。
測試 WiFi
ESP32S 的聲音特性之一是其 WiFi 功能。所以,讓我們測試一下它的收音機,掃描它周圍的 wifi 網絡。你可以做到這一點,運行板附帶的代碼示例之一。
轉到 Arduino IDE 示例并查找WiFI ==> WiFIScan
在串行監視器上,您應該會看到設備范圍內的 wifi 網絡(SSID 和 RSSI)。這是我在家里得到的:
測試相機
對于相機測試,您可以使用以下代碼:
示例 ==> ESP32 ==> 相機 ==> CameraWebServer
只選擇合適的相機:
#define CAMERA_MODEL_AI_THINKER |
并使用網絡憑據輸入:
const char* ssid = "*********"; const char* password = "*********"; |
在串行監視器上,您將獲得正確的地址來運行您可以控制攝像機的服務器:
這里我輸入的是:http: //172.16.42.26
運行你的網絡服務器
到目前為止,我們可以測試所有 ESP32-Cam 硬件(MCU 和攝像頭)以及 wifi 連接?,F在,讓我們運行一個更簡單的代碼來捕獲單個圖像并將其呈現在一個簡單的網頁上。本代碼基于 Rui Santos 偉大的教程:ESP32-CAM Take Photo and Display in Web Server 開發
從 GitHub 下載文件:ESP332_CAM_HTTP_Server_STA ,更改 wifi 憑據并運行代碼。結果如下:
嘗試檢查代碼;更容易理解相機的工作原理。
水果與蔬菜 - 圖像分類
現在我們已經運行了嵌入式相機,是時候嘗試圖像分類了。
我們應該開始訓練模型并繼續在 ESP32-CAM 上進行推理。我們需要找到大量的數據用于訓練模型。
TinyML 是一組與嵌入式設備上的機器學習推理相關的技術,由于限制(在這種情況下主要是內存),我們應該將分類限制為三到四個類別。我們將蘋果與香蕉和土豆區分開來(您可以嘗試其他類別)。
因此,讓我們找到一個包含這些類別的圖像的特定數據集。Kaggle 是一個好的開始:
https://www.kaggle.com/kritikseth/fruit-and-vegetable-image-recognition
該數據集包含以下食品的圖像:
水果-香蕉、蘋果、梨、葡萄、橙子、獼猴桃、西瓜、石榴、菠蘿、芒果。
蔬菜- 黃瓜、胡蘿卜、辣椒、洋蔥、土豆、檸檬、番茄、蘿卜、甜菜根、卷心菜、生菜、菠菜、大豆、花椰菜、甜椒、辣椒、蘿卜、玉米、甜玉米、紅薯、辣椒粉、墨西哥胡椒、姜、 大蒜、 豌豆、 茄子。
每個類別分為訓練(100 張圖像)、測試(10 張圖像)和驗證(10 張圖像)。
將數據集從 Kaggle 網站下載到您的計算機。
使用 Edge Impulse Studio 訓練模型
我們將使用 Edge Impulse 進行培訓,這是在邊緣設備上進行機器學習的領先開發平臺。
在 Edge Impulse 輸入您的帳戶憑據(或創建一個免費帳戶)。接下來,創建一個新項目:
數據采集
接下來,在上傳數據部分,從您的計算機上傳所選類別的文件:
如果您以三類數據結束,閱讀培訓會有所幫助
您還可以上傳額外的數據以進行進一步的模型測試或拆分訓練數據。
沖動設計
脈沖獲取原始數據(在本例中為圖像),提取特征(調整圖片大?。?,然后使用學習塊對新數據進行分類。
如前所述,對圖像進行分類是深度學習最常見的用途,但要完成這項任務需要使用大量數據。每個類別我們有大約 90 張圖片。這個數字夠嗎?一點也不!我們將需要數千張圖像來“教授或建?!币詤^分蘋果和香蕉。但是,我們可以通過使用數千張圖像重新訓練先前訓練的模型來解決這個問題。我們將這種技術稱為“遷移學習”(TL)。
使用 TL,我們可以在我們的數據上微調預訓練的圖像分類模型,即使在相對較小的圖像數據集(我們的案例)中也能達到良好的性能。
因此,從原始圖像開始,我們將調整它們的大?。?6x96)像素,然后將它們提供給我們的遷移學習塊:
預處理(特征生成)
除了調整圖像大小外,我們還應該將它們更改為灰度,以保持實際的 RGB 顏色深度。這樣做,我們的每個數據樣本都將具有 9 維、216 個特征 (96x96x1)。保持RGB,這個尺寸會大三倍。使用灰度有助于減少推理所需的最終內存量。
不要忘記“保存參數”。這將生成要在訓練中使用的特征。
培訓(遷移學習和數據增強)
2007 年,Google 推出了MobileNetV1,這是一個通用計算機視覺神經網絡系列,專為移動設備而設計,支持分類、檢測等。MobileNets 是小型、低延遲、低功耗的模型,參數化以滿足各種用例的資源限制。
盡管基本的 MobileNet 架構已經很小并且具有低延遲,但很多時候,特定用例或應用程序可能需要模型更小更快。為了構建這些更小且計算成本更低的模型,MobileNet 引入了一個非常簡單的參數α (alpha),稱為寬度乘數。寬度乘數 α 的作用是在每一層均勻地細化網絡。
Edge Impulse Studio 提供 MobileNet V1(96x96 圖像)和 V2(96x96 和 160x160 圖像),具有多個不同的α值(從 0.05 到 1.0)。例如,對于 V2、160x160 圖像和 α=1.0,您將獲得最高準確度。當然,有一個權衡。精度越高,運行模型所需的內存就越多(大約 1.3M RAM 和 2.6M ROM),這意味著更多的延遲。
在另一個極端,使用 MobileNet V1 和 α=0.10(大約 53.2K RAM 和 101K ROM)將獲得更小的占用空間。
為了在 ESP32-CAM 上運行這個項目,我們應該停留在可能性的較低端,保證推理的情況,但不能保證高精度。
與深度學習一起使用的另一項必要技術是數據增強。數據增強是一種可以幫助提高機器學習模型準確性的方法。數據增強系統在訓練過程中(如翻轉、裁剪或旋轉圖像)對訓練數據進行小的、隨機的更改。
在這里,您可以看到 Edge Impulse 如何對您的數據實施數據增強策略:
# Implements the data augmentation policy def augment_image(image, label): # Flips the image randomly image = tf.image.random_flip_left_right(image) # Increase the image size, then randomly crop it down to # the original dimensions resize_factor = random.uniform(1, 1.2) new_height = math.floor(resize_factor * INPUT_SHAPE[0]) new_width = math.floor(resize_factor * INPUT_SHAPE[1]) image = tf.image.resize_with_crop_or_pad(image, new_height, new_width) image = tf.image.random_crop(image, size=INPUT_SHAPE) # Vary the brightness of the image image = tf.image.random_brightness(image, max_delta=0.2) return image, label |
在訓練期間暴露于這些變化可以幫助防止模型通過“記憶”訓練數據中的表面線索而走捷徑,這意味著它可以更好地反映數據集中深層的潛在模式。
我們模型的最后一層將有 16 個神經元,其中 10% 的 dropout 用于防止過擬合。這是訓練輸出:
結果不是很好。該模型達到了大約 77% 的準確率,但預計在推理期間使用的 RAM 內存量非常小(大約 60 KB),這非常好。
部署
訓練后的模型將部署為 .zip Arduino 庫,用于特定的 ESP32-Cam 代碼。
打開您的 Arduino IDE 并在Sketch 下,轉到Include Library并添加.ZIP Library。選擇您剛剛從 Edge Impulse Studio 下載的文件,就是這樣!
在Arduino IDE 的示例選項卡下,您應該在項目名稱下找到一個草圖代碼。
打開靜態緩沖區示例:
您可以看到,第一段代碼正是調用了一個庫,該庫具有在您的設備上運行推理所需的一切。
#include 《ESP32-CAM-Fruit-vs-Veggies_inferencing.h》
當然,這是一個通用代碼(一個“模板”),它只獲取一個原始數據樣本(存儲在變量中:features = {} 并運行分類器,進行推理。結果顯示在串行監視器上。
我們應該做的是從相機中獲取樣本(圖像),對其進行預處理(調整為 96x96,轉換為灰度并平整它。這將是我們模型的輸入張量。輸出張量將是一個包含三個值,顯示每個類的概率。
在網站上:https ://github.com/edgeimpulse/example-esp32-cam,Edge impulse 改編了可用于相機測試的代碼(示例 ==》 ESP32 ==》 相機 ==》 CameraWebServer),包括必要的在 ESP32-CAM 上運行推理。在 GitHub 上,下載代碼Basic-Image-Classification,包括您的項目庫,選擇您的相機和您的 wifi 網絡憑據:
將代碼上傳到您的 ESP32-Cam,您應該可以開始對水果和蔬菜進行分類了!您可以在串行監視器上檢查它:
測試模型(推理)
用相機拍照,分類結果會出現在串口監視器上:
可以在網頁上驗證相機捕獲的圖像:
其他測試:
結論
ESP32-Cam 是一種非常靈活、不昂貴且易于編程的設備。該項目可以證明 TinyML 的潛力,但我不確定整體結果是否可以應用于實際應用程序(以開發的方式)。只有最小的遷移學習模型才能正常工作(MobileNet V1,α=0.10),任何使用更大的α來提高準確性的嘗試都會導致 Arena 分配錯誤??赡艿脑蛑皇沁\行相機的最終通用代碼中已經使用的內存量。因此,項目的下一步是優化最終代碼,釋放更多內存用于運行模型。
-
攝像頭
+關注
關注
60文章
4860瀏覽量
96249 -
ESP32
+關注
關注
18文章
977瀏覽量
17502
發布評論請先 登錄
相關推薦
評論