前言
上一篇博客給大家介紹了使用opencv加載YOLOv5的onnx模型,但我們發現使用CPU進行推理檢測確實有些慢,那難道在CPU上就不能愉快地進行物體識別了嗎?當然可以啦,這不LabVIEW和OpenVINO就來了嘛!今天就和大家一起看一下如何在CPU上也能感受絲滑的實時物體識別。
一、OpenVINO是什么
OpenVINO是英特爾針對自家硬件平臺開發的一套深度學習工具庫,用于快速部署應用和解決方案,包含推斷庫,模型優化等等一系列與深度學習模型部署相關的功能。
特點:
- 在邊緣啟用基于CNN的深度學習推理
- 支持通過英特爾?Movidius?VPU在英特爾?CPU,英特爾?集成顯卡,英特爾?神經計算棒2和英特爾?視覺加速器設計之間進行異構執行
- 通過易于使用的計算機視覺功能庫和預先優化的內核加快上市時間
- *包括對計算機視覺標準(包括OpenCV 和OpenCL?)的優化調用
- 通俗易懂點說****想要在intel-cpu或者嵌入式上部署深度學習模型,可以考慮考慮openvino
二、LabVIEW視覺工具包下載與配置
1、視覺工具包的下載安裝
可在如下鏈接中下載OpenVINO版工具包: 基于LabVIEW可使用opencv DNN模塊調用的深度學習工具包
2、OpenVINO toolkit下載安裝
下載地址: 英特爾? Distribution of OpenVINO? 工具套件
1)點擊Dev Tools
2)選擇版本,選擇如下版本,并DownLoad:
3)下載后,運行安裝即可!
4)可以選擇安裝路徑,具體安裝可以參考官方文檔: https://docs.openvino.ai/cn/latest/openvino_docs_install_guides_installing_openvino_windows.html
三、模型獲取
openvino工作流程,和其他的部署工具都差不多,訓練好模型,解析成openvino專用的.xml和.bin,隨后傳入Inference Engine中進行推理。這里和上一篇博客一樣可以使用export.py導出openvino模型:python export.py --weights yolov5s.pt --include openvino
當然這里已經為大家轉換好了模型,大家可以直接下載,下載鏈接:
四、LabVIEW+OpenVINO調用Yolov5進行實時物體識別
1、實現過程
- dnn模塊調用IR模型(模型優化器)
- 設置計算后臺與計算目標設備(推理引擎加速)
- 獲取輸出端的LayerName
- 圖像預處理
- 推理
- 后處理
- 繪制檢測出的對象
2、程序源碼
如需源碼,請關注微信公眾號VIRobotics,回復關鍵詞:yolov5_openvino。
3、識別結果
CPU模式下,使用openvino進行推理加速,實時檢測推理用時僅95ms/frame,是之前加載速度的三分之一
注意:
附加說明:計算機環境
- 操作系統:Windows10
- python:3.6及以上
- LabVIEW:2018及以上 64位版本
- 視覺工具包:techforce_lib_opencv_cpu-1.0.0.73.vip
- OpenVINO:2021.4.2
總結
如果文章對你有幫助,歡迎?關注、
審核編輯 黃宇
-
cpu
+關注
關注
68文章
10901瀏覽量
212936 -
LabVIEW
+關注
關注
1976文章
3657瀏覽量
325495 -
深度學習
+關注
關注
73文章
5512瀏覽量
121511
發布評論請先 登錄
相關推薦
評論