-
輸入節點名字:“images”;數據:float32[1,3,640,640]。
-
輸出節點1的名字:“output0”;數據:float32[1,116,8400]。其中116的前84個字段跟 YOLOv8目標檢測模型輸出定義完全一致,即cx,cy,w,h和80類的分數;后32個字段用于計算掩膜數據。
-
輸出節點2的名字:“output1”;數據:float32[1,32,160,160]。output0后32個字段與output1的數據做矩陣乘法后得到的結果,即為對應目標的掩膜數據。
# Initialize the VideoCapture
cap =cv2.VideoCapture("store-aisle-detection.mp4")
# Initialize YOLOv5 Instance Segmentator
model_path ="yolov8n-seg.xml"
device_name ="GPU"
yoloseg =YOLOSeg(model_path, device_name, conf_thres=0.3, iou_thres=0.3)
whilecap.isOpened():
# Read frame from the video
ret, frame =cap.read()
ifnotret:
break
# Update object localizer
start =time.time()
boxes, scores, class_ids, masks =yoloseg(frame)
# postprocess and draw masks
combined_img =yoloseg.draw_masks(frame)
end =time.time()
# show FPS
fps =(1/(end -start))
fps_label ="Throughput: %.2fFPS"%fps
cv2.putText(combined_img, fps_label, (10, 25), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 0, 255), 2)
# show ALL
cv2.imshow("YOLOv8 Segmentation OpenVINO inference Demo", combined_img)
# Press Any key stop
ifcv2.waitKey(1) >-1:
print("finished by user")
break
運行結果,如下圖所示: 結 論 AI愛克斯開發板借助N5105處理器的集成顯卡(24個執行單元)和OpenVINO,可以在YOLOv8-seg的實例分割模型上獲得相當不錯的性能。通過異步處理和AsyncInferQueue,還能進一步提升計算設備的利用率,提高AI推理程序的吞吐量。下一篇將繼續介紹在《在AI愛克斯開發板上用OpenVINO加速YOLOv8-pose姿態檢測模型》。 審核編輯 :李倩-
開發板
+關注
關注
25文章
5119瀏覽量
97949 -
模型
+關注
關注
1文章
3294瀏覽量
49038 -
目標檢測
+關注
關注
0文章
211瀏覽量
15646
原文標題:?在AI愛克斯開發板上用OpenVINO加速YOLOv8-seg實例分割模型
文章出處:【微信號:SDNLAB,微信公眾號:SDNLAB】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論