色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

淺談邊緣視頻分析

jf_pJlTbmA9 ? 2023-10-27 16:34 ? 次閱讀

概覽概覽

視頻分析是指通過視頻處理、推論和分析操作將視頻流轉化為洞察力,用于醫(yī)療保健、零售、娛樂和工業(yè)等商業(yè)領域,視頻分析所使用的算法對輸入視頻流進行物體探測、分類、識別、計數(shù)和跟蹤。

使用這一案例的特點是可互操作的集裝箱化微服務,用于開發(fā)和部署使用建造的優(yōu)化視頻分析管道Intel? DL Streamer包件提供的預制集裝箱圖像使開發(fā)商能夠用自己的深層學習模型和管道取代集裝箱中使用的深層學習模型和管道。工業(yè)邊緣觀察(EII)用于在邊緣設備上進行視頻分析的軟件堆疊 。

開發(fā)者可以通過使用預先制造的Docker* 圖像和簡單地以眾所周知的JSON格式配置視頻分析管道來節(jié)省開發(fā)和部署時間。

選定配置 下載下載微觀服務和下列軟件。

配置 下載完成時間 :45分鐘 45分鐘

語言:Python* 3

可用軟件 :

邊緣視頻分析

Deep Learning Streamer (Intel? DL Streamer) Pipeline Server

目標系統(tǒng)要求

下列處理器之一:

6th to 11th generation Intel? Core? processors

1st to 3rd generation of Intel? Xeon? Scalable processors

Intel Atom? processor with Intel? Streaming SIMD Extensions 4.2 (Intel? SSE4.2)

至少8GB內存。

至少64GB硬盤。

互聯(lián)網(wǎng)連接。

Ubuntu* 20.04 LTS Kernel 5.4?

引用到OpenVINO? Toolkit System Requirements支持的 GPU 和 VPU 處理器。

? Use Kernel 5.8 for 11th generation Intel? Core? processors.

如何運作

邊緣視頻分析

這是用于部署最佳視頻分析分析管道的Python* 微型服務,作為Docker圖像在包件中提供。Intel? DL Streamer用于推斷的管道服務器。 Docker 圖像使用Intel? DL Streamer Pipeline Server as a library. The microservice can be started in one of two modes – Edge Insights Industrial (EII) to deploy with EII software stack or Edge Video Analytics (EVA) to deploy independent of the EII stack.

Edge Video Analytics (EVA) Mode: Provides the same RESTful APIs as Intel? DL Streamer Pipeline Server to discover, start, stop, customize,和monitor pipeline execution和supports MQTT和Kafka message brokers for publishing the inference results. For the REST API definition, refer to the Restfforforfor Microsservices 微服務接口.

工業(yè)(EII)模式的邊緣透視:支持管道執(zhí)行的 EII 配置管理器,以及發(fā)布推論結果的 EI 信息管道,使其與工業(yè)的邊緣透視軟件堆疊。

wKgZomTDjJyAHnpNAAE0p5-OjCY825.png

圖1:建筑圖圖

注意: 可以選擇, 人們也可以從 Docker 樞紐下載 docker 圖像, 來運行獨立版本的微服務。 這是斷層視頻分析微服務, 沒有安裝信息總線出版商和 gst- udfloader 元素等工業(yè)部件的邊緣透視, 因此容器大小較小 。

wKgaomTDjJ-AaP7WAADkPrmrtPs923.png

圖2 建筑圖圖 - 獨立版本

微服務資源

在邊緣視頻分析微觀服務中使用的以下配置文件、腳本和工具已列入邊緣視頻分析資源拉鏈文件:

docker- competable. yml 轉換器用于邊緣視頻分析微服務 和 MQTT 經(jīng)紀人的文件配置、創(chuàng)建和啟動容器 。

管道和模型列表文件夾中包含“邊緣視頻分析微觀服務嵌入器”圖像中所包含的管道和示范定義文件。這些文件可以通過體積遞增來修改和使用“邊緣視頻分析微觀服務嵌入器”圖像。

工具/模型下下加載器工具工具從openvinotoolkit/open_model_zoo.

約克基多文件夾中包含一個配置 MQTT 代理器的文件, 以查看推斷結果 。

GST-UDF-LOADER元素

gst-udf-loader gstreamer 插件支持 python 和 本地(c) UDFs 的裝載和執(zhí)行。 UDF 是用戶定義的功能,使用戶能夠在 EVAM 定義的管道中添加任何預處理或后處理邏輯。

集裝箱發(fā)動機和管弦

該軟件包使用Docker和Docker Compose進行自動集裝箱管理。

Docker集裝箱框架是企業(yè)環(huán)境中廣泛使用的集裝箱框架,允許將各種應用及其依賴性包裝在一起,作為自足單位運行。

Docker Compose是一個用于定義和運行多集裝箱套件應用程序的工具。

開始

第1步:安裝微觀服務

選定配置 下載下載微服務,然后按以下步驟安裝。

配置 下載

打開一個新的終端, 轉到下載的文件夾并解zip 下載的軟件包 :

unzip video_analytics.zip

轉到視頻分析/目錄 :

cd video_analytics

更改可執(zhí)行的邊緣軟件文件的權限 :

chmod 755 edgesoftware

在下面運行安裝微服務的命令 :

sudo ./edgesoftware install

安裝期間,您將被提示產(chǎn)品。產(chǎn)品鍵包含在Intel發(fā)來的郵件中,該郵件確認您的下載。

wKgaomTDjKOALkiUAAJKzMNbOqE140.png

圖3:產(chǎn)品鍵

When the installation is complete, you see the message?“Installation of package complete”和the installation status for each module.

wKgaomTDjKeAcQ8rAALytPrD1ps365.png

圖4 圖4:安裝完成

要校驗安裝, 請列出使用以下命令下載的 Docker 圖像 :

sudo docker images

如果安裝成功, 您將會看到類似 :

wKgZomTDjKqAbD3jAAEd7c6fYOE246.png

圖5:安裝成功?

注:
路徑中將可用安裝失敗日志 :/var/log/esb-cli/video_analytics_何 地是下載的邊緣視頻分析微服務版本。
Docker 樞紐可直接下載邊緣視頻分析微服務嵌入圖像, 使用以下命令 :
docker pull intel/邊緣 _ 視頻_分析_微觀服務:

安裝獨立版本

Docker 樞紐可使用以下命令直接從 Docker 樞紐下載獨立版本的 邊緣視頻分析微服務 的 docker 圖像 :

docker pull intel/邊緣 _ 視頻_分析_微觀服務:-standalone

步驟2:運行邊緣視頻分析

在此步驟中,您將運行邊緣視頻分析微服務,包括樣品物體探測、物體分類、物體跟蹤、面部檢測、情感識別、動作識別和環(huán)境音頻探測管道,這些已經(jīng)包含在多克圖像中。

添加文件權限 :

跳轉到工作目錄Edge_Video_Analytics_Resources帶有命令 :

cd 視頻分析/Video_Analytics_/Edge_Video_Analytics_Resources/

添加文件權限以使用命令運行腳本 :

sudo chmod +x docker/run.sh
sudo chmod +x 工具/模型下下加載器/model_downloader.sh 

?下載模型 :

通過運行命令從工作目錄中 Open Model Zoo 下載所需的模型 :

sudo ./工具/模型下下加載器/model_downloader.sh --model-list models_list/models.list.yml

模型列表可以通過打開models_list/models.list.yml 文件。

通過瀏覽模式目錄, 檢查下載是否成功 :

wKgaomTDjK6AdzVdAALUxHs0TQM285.png

圖6:模型目錄

注:示范清單可以修改或更新。

運行微服務:

以命令啟動應用程序 :sudo docker 合成

檢查終端中的成功信息 。

wKgZomTDjLqARHlNAAnPWhie7D4460.png

圖7 圖7:成功信息

打開一個新的終端,檢查集裝箱是否使用以下命令運行:

sudo docker ps -–format 'table{{.Image}}t{{.Status}}t{{.Names}}' 

命令輸出應該顯示兩個 docker 容器邊緣 _ 視頻_分析_微觀服務和日食- 日食- 日食具有咨商地位或具有Up.

wKgaomTDjL2ASKlBAAC0J4XeIFI950.png

圖8:集裝箱運行中的集裝箱

利用REST請求,獲取集裝箱內現(xiàn)有模型和管道清單:

打開一個新的終端 。

運行以下命令以獲取微服務中可用的模型列表 :

curl --location -X GET 'http://localhost:8080/models'

運行以下命令以獲取微服務中可用的管道列表。 管道以名稱/ version tuple 顯示。 名稱反映動作, 版本提供此動作的更多細節(jié) 。

curl --location -X GET 'http://localhost:8080/pipelines' 


注:如果這些步驟由于代理問題而失敗,則提及排除故障段 次 頁 次

發(fā)送ReST請求以運行物體探測管道:

通過替換創(chuàng)建 REST 請求在下面的曲線命令中,您系統(tǒng)的 IP 地址為 IP 。 (如果您在 PRC 區(qū)域,請參考下面的第二個選項。 )
引用到自定義視頻分析管道請求以理解 " STP-REST " 申請格式。

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
    "uri": "https://github.com/intel-iot-devkit/sample-videos/raw/master/person-bicycle-car-detection.mp4?raw=true",
    "type": "uri"
  },
  "destination": {
    "metadata": {
      "type": "mqtt",
      "host": ":1883",
      "topic": "vaserving"
    },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  }
}'

對于 PRC 用戶,請使用下面顯示的鏈接替換在下面的卷軸命令中,使用您的系統(tǒng)的 IP 地址。
引用到自定義視頻分析管道請求以理解 " STP-REST " 申請格式。

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
    "uri": "file:///home/pipeline-server/resources/classroom.mp4",
    "type": "uri"
  },
  "destination": {
    "metadata": {
      "type": "mqtt",
      "host": ":1883",
      "topic": "vaserving"
    },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  }
}'


注:對于低于0.7.2的EVAM版本,在工作目錄不同時,對uri使用以下文字:檔案: /app/resources/lechroom.mp4

打開一個新的終端并運行修改的卷軸命令。 REST 請求將返回管道實例 ID, 可用于查詢管道狀態(tài) 。

例如,就第一期而言,根據(jù)請求,管道(例如,a6d67224eacc11ec9f360242c0a8603)將歸還,隨后又以遞增號返回請求。

檢查結果:?

顯示微服務日志的初始終端窗口現(xiàn)在顯示新發(fā)送請求的日志, 包括管道實例、 狀態(tài)和 RTSP 流鏈接。 管道狀態(tài)將顯示隊列、 運行和完成 。

wKgZomTDjMGARuSgAALaNdRfJvw625.png

圖9:核對結果

使用管道實例ID發(fā)送 Get 請求,檢查輸油管狀況:

curl --location -X GET 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike//status'

何 地是管道實例。
從GET請求中收到的答復與以下各點相似:

{
  "avg_fps": 27.014388149183596,
  "elapsed_time": 2.2934277057647705,
  "id": a6d67224eacc11ec9f360242c0a86003,
  "start_time": 1641468940.5196402,
  "state": "RUNNING"
} 

注:如果輸油管線已經(jīng)終止,那么國家將顯示為"COMPLETED".

打開 VLC 播放器中的輸出 RTSP 流, 以查看替換后輸入視頻上的推推結果在您的系統(tǒng) IP 地址的下列 URL 中:rtsp:// :8554/vasserving

請注意, 管道應該在 RUNNING 狀態(tài)下查看輸出視頻。 如果管道已經(jīng)結束, 請使用卷曲命令重新開始, 然后查看視頻 。

wKgaomTDjMyAbLDrAAUjOmFJKX8792.png

圖10: 推斷結果

發(fā)送 REST 請求的替代方法 :
REST請求也可以通過郵遞員應用程序發(fā)送,使用與前幾個步驟相同的卷曲命令。
要安裝 Postman 應用程序,請執(zhí)行以下步驟:

轉到郵差下載.

在想要的位置提取安裝文件 。

提取后,雙擊應用程序,并用您現(xiàn)有的賬戶簽名,或創(chuàng)建新賬戶簽名。

正在運行獨立版本

獨立版本的邊緣視頻分析分析微服務與 EVA 模式相似,不同之處在于它沒有任何 EII 組件,因此只能以 EVA 模式運行。結構結構圖圖,它是全容器圖像的脫光版。需要以下步驟才能運行獨立的微服務版本。

如果尚未完成, 請使用命令下載雙向視頻分析微服務獨立版本的 docker 圖像 :

$ docker pull intel/邊緣 _ 視頻_分析_微觀服務:1.0.0-standalone

為提升微服務,請使用以下命令:

$ docker run -itd --rm 
     -p 8080:8080 
     -p 8554:8554 
     -e ENABLE_RTSP=true 
     -e RTSP_PORT=8554 
     -e ENABLE_WEBRTC=true 
     -e WEBRTC_SIGNALING_SERVER=ws://localhost:8443 
     -e RUN_MODE=EVA 
     intel/邊緣 _ 視頻_分析_微觀服務:1.0.0-standalone

向輸油管服務器發(fā)送 REST 請求以運行 對象_ 分類/ 車輛/ 屬性管道。 以下 CURL 命令為我們這樣做 。 回復將包含管道例 id (例如: a6d67224eacc11ec11ec9f360242c0a8603) , 用于使用輸油管- 服務器狀態(tài) API 查詢管道狀態(tài) 。

$ curl localhost:8080/pipelines/object_classification/vehicle_attributes -X POST -H 
     'Content-Type: application/json' -d 
     '{
        "source": {
"uri": "https://github.com/intel-iot-devkit/sample-videos/blob/master/car-detection.mp4?raw=true",
"type": "uri"
        },
        "destination": {
"metadata": {
   "type": "file",
   "path": "/tmp/results.jsonl /tmp/results.jsonl /tmp/results.jsonl /tmp/results.jsonl",
   "format": "json-lines"
},
"frame": {
   "type": "rtsp",
   "path": "pipeline-server"
}
        },
        "parameters": {
"detection-device": "CPU"
        }
     }'

微觀服務處公布元元數(shù)據(jù)的推推到一個本地文件,可在以下網(wǎng)址查閱:/tmp/results.jsonl /tmp/results.jsonl /tmp/results.jsonl /tmp/results.jsonl處理后的框架還作為RTSP流提供,可在下列地點查閱:trtsp://localhost:8554/管道-服務器,并且可以使用 RTSP 查看器查看。

添加模型和定制管道

可使用可用的下載腳本下載更多模型here.

您可以查詢pipeline server docs創(chuàng)建自定義管道,并使用邊緣視頻分析微服務。

假設其他模型和管道分別以${pwd}/模型和${pwd}/管道提供,則設定了以下環(huán)境變量。

$ export MODEL_DIR=$(pwd)/models
$ export PIPELINE_DIR=$(pwd)/pipelines

為提升微服務,請使用以下命令:

$ docker run -itd --rm 
     --privileged 
     --device=/dev:/dev 
     --device-cgroup-rule='c 189:* rmw' 
     --device-cgroup-rule='c 209:* rmw' 
     --group-add 109 
     -p 8080:8080 
     -p 8554:8554 
     -e ENABLE_RTSP=true 
     -e RTSP_PORT=8554 
     -e ENABLE_WEBRTC=true 
     -e WEBRTC_SIGNALING_SERVER=ws://localhost:8443 
     -e RUN_MODE=EVA 
     -e DETECTION_DEVICE=CPU 
     -e CLASSIFICATION_DEVICE=CPU 
     -v ${MODEL_DIR}:/home/pipeline-server/models 
     -v ${PIPELINE_DIR}:/home/pipeline-server/pipelines 
     intel/邊緣 _ 視頻_分析_微觀服務:${TAG}

正在運行 iGPU 上的推斷

要啟用對 iGPU 推論的支持, 您將需要將額外的旗幟傳遞到 docker 運行命令上, 詳情如下 。

$ docker run -itd --rm 
     --privileged 
     --device=/dev:/dev 
     --device-cgroup-rule='c 189:* rmw' 
     --device-cgroup-rule='c 209:* rmw' 
     --group-add 109 
     -p 8080:8080 
     -p 8554:8554 
     -e ENABLE_RTSP=true 
     -e RTSP_PORT=8554 
     -e ENABLE_WEBRTC=true 
     -e WEBRTC_SIGNALING_SERVER=ws://localhost:8443 
     -e RUN_MODE=EVA 
     intel/邊緣 _ 視頻_分析_微觀服務:${TAG}

可選: 帶視頻分析測試模塊進行測試

安裝完成后,您可通過運行視頻分析測試模塊測試您的設置。

詳情,請參見Intel? Edge Software Device Qualification (Intel? ESDQ) for Video Analytics.

教腳

教程1: 在 GPU 上運行物件探測管道

此教程將演示如何更改運行 GPU 上的推論的推論設備 。
您將再次運行相同的對象_ 檢測管道, 但這次您將使用集成的 GPU 進行檢測推理, 設置檢測- 檢測設備參數(shù) 。

完成所有步驟Get Started上文一節(jié)。

在目標設備上,檢查以下命令的輸出并獲得設備組:

stat -c '%g' /dev/dri/render*

在 docker-competect.yml 文件中添加設備組 :

    group_add:
      - 109

通過替換創(chuàng)建 REST 請求the 在下面的卷軸命令中,使用您的系統(tǒng)的 IP 地址。
請注意REST機體的參數(shù)部分。

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
      "uri": "https://github.com/intel-iot-devkit/sample-videos/raw/master/person-bicycle-car-detection.mp4?raw=true",
      "type": "uri"
  },
  "destination": {
      "metadata": {
        "type": "mqtt",
        "host": ":1883",
        "topic": "vaserving"
      },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  },
    "parameters": {
        "detection-device": "GPU"
   }
}' 

注:
GPU 電導內插在首次裝入時動態(tài)構建 OpenCL 內核,導致產(chǎn)生推論結果前的延遲 ~ 30 秒。
Additional configuration might be needed to run inference on GPU depending on the HW. Refer Configurations for Intel? Processor Graphics (GPU) to download和install install_NEO_OCL_driver.sh (system reboot might be needed).

打開一個新的終端并運行卷軸命令。 REST 請求將返回管道實例 ID (例如, a6d67224eacc11ec9f360242c0a8603) , 可用于查詢管道狀態(tài) 。

校對結果運行邊緣視頻分析以上步驟。

教學圖2:使用 USB 相機輸入的 RUN 邊緣視頻分析分析微觀服務

在此教程中, 您將把物體探測管道的輸入源更改為 USB 相機 。

完成所有步驟Get Started上文一節(jié)。

在Ubuntu上,通過執(zhí)行以下命令,列出所有可用的視頻設備:是/dev/Vide*

創(chuàng)建 curl 請求, 以便使用視頻設備作為源。 例如, 如果命令的輸出為 / dev/ Video0, 那么對 curl 命令源進行如下修改 :

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
      "device": "/dev/video0",
      "type": "webcam"
  },
  "destination": {
      "metadata": {
        "type": "mqtt",
        "host": ":1883",
        "topic": "vaserving"
      },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  }
}' 

打開一個新的終端并運行卷軸命令。 REST 請求將返回管道實例 ID (例如, a6d67224eacc11ec9f360242c0a8603) , 可用于查詢管道狀態(tài) 。

校對結果運行邊緣視頻分析以上步驟。

注意: 請確定設備源參數(shù)中使用了正確的設備節(jié)點 。

教程 3: 在邊緣視頻分析微服務中以新模式運行新管道

在此教程中, 您將創(chuàng)建一個基于 人- 檢測管道的新管道, 它將使用 人- 檢測- retail- 0013 模型。 管道和模式文件夾將被安裝到邊緣視頻分析微服務上, 無需重建 Docker 圖像。 您可以遵循同樣的步驟創(chuàng)建任何新的管道 。

完成所有步驟Get Started上文一節(jié)。

下載新模型。
要從開放型動物園下載新模型,請在模型中添加模型細節(jié)。 list. yml 顯示于 Edge_Video_Analytics_Resources/models_list 路徑中。
對于人-檢測-零售-0013,在文件模型.list.yml的結尾處添加以下條目。

- model: person-detection-retail-0013
  alias: object_detection
  version: person_detection
  precision: [FP16,FP32] 

然后,在一個新的終端中運行以下命令,下載模型。

cd 視頻分析/Video_Analytics_/Edge_Video_Analytics_Resources/
# 何 地 is the Package version downloaded

sudo ./工具/模型下下加載器/model_downloader.sh --model-list models_list/models.list.yml

命令執(zhí)行完成后,下載的模型人-探測儀應在模型/物體-探測目錄下提供。
如果您沒有使用來自開放型動物園的模型,請在模型目錄中直接復制您的模型。

wKgZomTDjNCASSs7AACrpu95hnk262.png

圖11:下載新模型

創(chuàng)建新管道
您將在管道/ 目標/ 探測中創(chuàng)建一個新的管道。 既然您正在以現(xiàn)有人_ 車輛_ 自行車管道為基礎, 請復制人_ 車輛_ 自行車文件夾, 將其重命名為人_ 探測, 然后更新管道.json , 以便使用新模式 。
在同一終端中( 從路徑 Edge_ Video_Analytics_Resources) 執(zhí)行命令 :

sudo cp -r pipelines/object_detection/person_vehicle_bike/ pipelines/object_detection/person_detection

在新復制的管道/物體/探測/人/探測/管道.json中,編輯管道.json文件的模板和說明部分。 json使用以下線條,將示范路徑指定為模型/物體/探測/人/探測,以便使用模型人-探測-零售-0013來探測物體。
將模板定義為 :

	"template": ["uridecodebin name=source"," ! gvadetect model={models[object_detection][person_detection][network]} name=detection"," ! gvametaconvert name=metaconvert ! gvametapublish name=destination"," ! appsink name=appsink"
	], 

說明的定義是:

"description": "Person Detection based on person-detection-retail-0013",

請參見界定媒體分析管道了解輸油管模板和界定自己的輸油管。

使用添加了模型和管道的微型運行服務
以命令啟動應用程序 :

sudo docker 合成 

此步驟會大量掛載模型和管道目錄。 您可以在一個單獨的終端中檢查容器是否正在使用 sudo docker ps 命令運行 。

檢查新的管道和模式
打開一個新終端并運行以下命令以獲取可用的模型列表 :

curl --location -X GET 'http://localhost:8080/models'

運行以下命令以獲取管道列表 。 管道以名稱/ version tuple 顯示。 名稱反映動作, 版本提供動作的更多細節(jié) 。

curl --location -X GET 'http://localhost:8080/pipelines'

您應該看到列表中新添加的管道和模型 。

對象_ 檢測/ 人_ 檢測運行管道
打開一個新的終端并輸入下面的曲線命令,用于下文給出的物件_ 檢測/ 人_ 檢測管道:

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_detection' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
      "uri": "https://github.com/intel-iot-devkit/sample-videos/raw/master/store-aisle-detection.mp4?raw=true",
      "type": "uri"
  },
  "destination": {
      "metadata": {
        "type": "mqtt",
        "host": ":1883",
        "topic": "vaserving"
      },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  }
}' 

何 地 is the IP address of the system.
The above curl command returns the pipeline instance. Use this pipeline instance to get the status by updating the in the below command:

curl --location --request GET 'http://localhost:8080/pipelines/object_detection/person_detection//status'  
wKgaomTDjNaAFIvbAATvck6Ists738.png

圖12: 人員探測運行管道

微服務日志將顯示,天體探測/人探測管道實例已經(jīng)建立,管道狀態(tài)已經(jīng)改為RUNNING,并結束了。

wKgaomTDjNmANRisAALLaxOiTCY108.png

圖13:管道日志

教程 4: 安裝邊緣視頻分析外殼圖

注:此教程從第2022.1號釋放起支持。

注:此教義假設您有一個寬網(wǎng)可用分組 。

在此教程中, 您將使用制導圖在 寬網(wǎng) 群集中部署邊緣視頻分析微服務。 使用 drawnchart 組合圖 。 用于樣本部署的 Guard 圖表包 邊緣視頻分析微服務和 MQTT 經(jīng)紀人。 要下載制導圖, 請使用定制的下載選項 。

完成所有步驟Get Started Guide. When the installation is complete, you see the message?“Installation of package complete”和the installation status for each module.

wKgZomTDjN6ALvYuAAGxiIA5Wv8367.png

圖14:成功安裝

將模型、管道和資源文件夾復制到 /可選/英特爾/評價/庫伯涅茨工人節(jié)點。

上述先決條件完成后,安裝如下圖表:helm install evam ./chart/

wKgaomTDjOOAFot6AAQKVfFGRaM733.png Figure 15: Chart Installation

Get the IP IP 地址 :

kubectl get pods -o wide

wKgaomTDjOiAf-heAAFvZ0IGhFA248.png Figure 16: Retrieving IP Address

更新管道請求指令以觸發(fā)管道。 替換EVAM_POD_IP, MQTT_POD_IP上面有 IP 地址 。

curl --location -X POST 'http://:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
      "uri": "file:///home/pipeline-server/resources/person-bicycle-car-detection.mp4",
      "type": "uri"
  },
  "destination": { 
      "metadata": {
        "type": "mqtt",
        "host": ":1883",
        "topic": "vaserving"
      }
  }
}'

注:使用 GitHub URL 支持代理服務器網(wǎng)絡時, 視頻文件使用 GitHub URL 可能無法工作 。 相反, 下載視頻文件并添加到資源目錄/可選/英特爾/評價立方公尺內立體體體積的路徑。

獲取 MQTT 訂閱者的推斷輸出 :

docker run -it --entrypoint 約克基多_sub  日食- 日食- 日食:latest --topic vaserving -p 1883 -h 

wKgZomTDjO2AQoQ6AAUf5SZUD2U515.png Figure 17: Inference Output

概述和下一步步驟

使用“邊緣視頻分析微服務” 學習如何進行視頻分析。

學習更多

繼續(xù)學習,見下列指南和軟件資源:

GitHub

Docker Image

Helm Charts (概覽概覽)

Microservice Endpoints

自定義視頻分析管道請求

界定媒體分析管道

Intel? Edge Software Device Qualification (Intel? ESDQ) for Video Analytics

排除故障

確保您在完全安裝期間有一個活躍的互聯(lián)網(wǎng)連接。 如果您隨時失去互聯(lián)網(wǎng)連接, 安裝可能會失敗 。

如果安裝在從 Intel 注冊處下載和提取圖像時失敗安裝, 然后重新運行安裝命令sudo ./edgesoftware install通過提供產(chǎn)品鑰匙。
wKgZomTDjPGAYQiFAAEjKf0Dn6M292.png

確保您正在使用一個新的 Ubuntu* 安裝。 早期軟件, 特別是 Docker 和 Docker Compose 可能會引起問題 。

在代理環(huán)境中,如果設定了單一用戶代理(即. bashrc 鍵) 然后部分組件安裝可能失敗或安裝掛掛掛。 請確定您已經(jīng)設置了代理服務器/貝茨/環(huán)境.

如果您的系統(tǒng)在代理服務器網(wǎng)絡中, 請在環(huán)境環(huán)境欄內docker- competable. yml 轉換器文件。

HTTP_PROXY=http:///
HTTPS_PROXY=http:////
NO_PROXY=localhost,127.0.0.1 


輸入代理代理服務器的詳細信息docker- competable. yml 轉換器顯示如下:

wKgaomTDjPSAfuVYAADc2HbLunA816.png

如果缺少代理細節(jié), 則無法獲取運行管道所需的源視頻文件, 并在容器內安裝所需的包件 。
wKgaomTDjPeAVjGIAAMxGLcNyek252.png

運行命令sudo - E docker 合成(參考步驟8(安裝邊緣視頻分析微觀服務)

在自定義模式下, 如果目標設備在代理服務器后面, Helm CLI 安裝可能會失敗。 要修正它, 請更新 apag 代理服務器的細節(jié) 。

sudo snap set system proxy.http=http:////
sudo snap set system proxy.https=http:////

如果集裝箱顯示有沖突錯誤,則停止/刪除集裝箱。
要刪除邊緣 _ 視頻_分析_微觀服務和mqtt_ 經(jīng)紀人,使用以下任何一種備選辦法:

執(zhí)行下列命令:

sudo docker stop 邊緣 _ 視頻_分析_微觀服務 mqtt_ 經(jīng)紀人
sudo docker rm 邊緣 _ 視頻_分析_微觀服務 mqtt_ 經(jīng)紀人

或者運行sudo docker 合成向下從路徑 :視頻分析/Video_Analytics_/Edge_Video_Analytics_Resources

wKgZomTDjP2APAlSAAInPo4h9vE772.png

支助論壇支助論壇

If you're unable to resolve your issues, contact the?支助論壇支助論壇.?

概覽概覽

視頻分析是指通過視頻處理、推論和分析操作將視頻流轉化為洞察力,用于醫(yī)療保健、零售、娛樂和工業(yè)等商業(yè)領域,視頻分析所使用的算法對輸入視頻流進行物體探測、分類、識別、計數(shù)和跟蹤。

使用這一案例的特點是可互操作的集裝箱化微服務,用于開發(fā)和部署使用建造的優(yōu)化視頻分析管道Intel? DL Streamer包件提供的預制集裝箱圖像使開發(fā)商能夠用自己的深層學習模型和管道取代集裝箱中使用的深層學習模型和管道。工業(yè)邊緣觀察(EII)用于在邊緣設備上進行視頻分析的軟件堆疊 。

開發(fā)者可以通過使用預先制造的Docker* 圖像和簡單地以眾所周知的JSON格式配置視頻分析管道來節(jié)省開發(fā)和部署時間。

選定配置 下載下載微觀服務和下列軟件。

配置 下載

wKgZomTDZXyARi0cAAGLXLPSiE4201.png

完成時間 :45分鐘 45分鐘

語言:Python* 3

可用軟件 :

邊緣視頻分析

Deep Learning Streamer (Intel? DL Streamer) Pipeline Server

目標系統(tǒng)要求

下列處理器之一:

6th to 11th generation Intel? Core? processors

1st to 3rd generation of Intel? Xeon? Scalable processors

Intel Atom? processor with Intel? Streaming SIMD Extensions 4.2 (Intel? SSE4.2)

至少8GB內存。

至少64GB硬盤。

互聯(lián)網(wǎng)連接。

Ubuntu* 20.04 LTS Kernel 5.4?

引用到OpenVINO? Toolkit System Requirements支持的 GPU 和 VPU 處理器。

? Use Kernel 5.8 for 11th generation Intel? Core? processors.

如何運作

邊緣視頻分析

這是用于部署最佳視頻分析分析管道的Python* 微型服務,作為Docker圖像在包件中提供。Intel? DL Streamer用于推斷的管道服務器。 Docker 圖像使用Intel? DL Streamer Pipeline Server as a library. The microservice can be started in one of two modes – Edge Insights Industrial (EII) to deploy with EII software stack or Edge Video Analytics (EVA) to deploy independent of the EII stack.

Edge Video Analytics (EVA) Mode: Provides the same RESTful APIs as Intel? DL Streamer Pipeline Server to discover, start, stop, customize,和monitor pipeline execution和supports MQTT和Kafka message brokers for publishing the inference results. For the REST API definition, refer to the Restfforforfor Microsservices 微服務接口.

工業(yè)(EII)模式的邊緣透視:支持管道執(zhí)行的 EII 配置管理器,以及發(fā)布推論結果的 EI 信息管道,使其與工業(yè)的邊緣透視軟件堆疊。

wKgZomTDjJyAHnpNAAE0p5-OjCY825.png

圖1:建筑圖圖

注意: 可以選擇, 人們也可以從 Docker 樞紐下載 docker 圖像, 來運行獨立版本的微服務。 這是斷層視頻分析微服務, 沒有安裝信息總線出版商和 gst- udfloader 元素等工業(yè)部件的邊緣透視, 因此容器大小較小 。

wKgaomTDjJ-AaP7WAADkPrmrtPs923.png

圖2 建筑圖圖 - 獨立版本

微服務資源

在邊緣視頻分析微觀服務中使用的以下配置文件、腳本和工具已列入邊緣視頻分析資源拉鏈文件:

docker- competable. yml 轉換器用于邊緣視頻分析微服務 和 MQTT 經(jīng)紀人的文件配置、創(chuàng)建和啟動容器 。

管道和模型列表文件夾中包含“邊緣視頻分析微觀服務嵌入器”圖像中所包含的管道和示范定義文件。這些文件可以通過體積遞增來修改和使用“邊緣視頻分析微觀服務嵌入器”圖像。

工具/模型下下加載器工具工具從openvinotoolkit/open_model_zoo.

約克基多文件夾中包含一個配置 MQTT 代理器的文件, 以查看推斷結果 。

GST-UDF-LOADER元素

gst-udf-loader gstreamer 插件支持 python 和 本地(c) UDFs 的裝載和執(zhí)行。 UDF 是用戶定義的功能,使用戶能夠在 EVAM 定義的管道中添加任何預處理或后處理邏輯。

集裝箱發(fā)動機和管弦

該軟件包使用Docker和Docker Compose進行自動集裝箱管理。

Docker集裝箱框架是企業(yè)環(huán)境中廣泛使用的集裝箱框架,允許將各種應用及其依賴性包裝在一起,作為自足單位運行。

Docker Compose是一個用于定義和運行多集裝箱套件應用程序的工具。

開始

第1步:安裝微觀服務

選定配置 下載下載微服務,然后按以下步驟安裝。

配置 下載

打開一個新的終端, 轉到下載的文件夾并解zip 下載的軟件包 :

unzip video_analytics.zip

轉到視頻分析/目錄 :

cd video_analytics

更改可執(zhí)行的邊緣軟件文件的權限 :

chmod 755 edgesoftware

在下面運行安裝微服務的命令 :

sudo ./edgesoftware install

安裝期間,您將被提示產(chǎn)品鍵。產(chǎn)品鍵包含在Intel發(fā)來的郵件中,該郵件確認您的下載。

wKgaomTDjKOALkiUAAJKzMNbOqE140.png

圖3:產(chǎn)品鍵

When the installation is complete, you see the message?“Installation of package complete”和the installation status for each module.

wKgaomTDjKeAcQ8rAALytPrD1ps365.png

圖4 圖4:安裝完成

要校驗安裝, 請列出使用以下命令下載的 Docker 圖像 :

sudo docker images

如果安裝成功, 您將會看到類似 :

wKgZomTDjKqAbD3jAAEd7c6fYOE246.png

圖5:安裝成功?

注:
路徑中將可用安裝失敗日志 :/var/log/esb-cli/video_analytics_何 地是下載的邊緣視頻分析微服務版本。
Docker 樞紐可直接下載邊緣視頻分析微服務嵌入圖像, 使用以下命令 :
docker pull intel/邊緣 _ 視頻_分析_微觀服務:

安裝獨立版本

Docker 樞紐可使用以下命令直接從 Docker 樞紐下載獨立版本的 邊緣視頻分析微服務 的 docker 圖像 :

docker pull intel/邊緣 _ 視頻_分析_微觀服務:-standalone

步驟2:運行邊緣視頻分析

在此步驟中,您將運行邊緣視頻分析微服務,包括樣品物體探測、物體分類、物體跟蹤、面部檢測、情感識別、動作識別和環(huán)境音頻探測管道,這些已經(jīng)包含在多克圖像中。

添加文件權限 :

跳轉到工作目錄Edge_Video_Analytics_Resources帶有命令 :

cd 視頻分析/Video_Analytics_/Edge_Video_Analytics_Resources/

添加文件權限以使用命令運行腳本 :

sudo chmod +x docker/run.sh
sudo chmod +x 工具/模型下下加載器/model_downloader.sh 

?下載模型 :

通過運行命令從工作目錄中 Open Model Zoo 下載所需的模型 :

sudo ./工具/模型下下加載器/model_downloader.sh --model-list models_list/models.list.yml

模型列表可以通過打開models_list/models.list.yml 文件。

通過瀏覽模式目錄, 檢查下載是否成功 :

wKgaomTDjK6AdzVdAALUxHs0TQM285.png

圖6:模型目錄

注:示范清單可以修改或更新。

運行微服務:

以命令啟動應用程序 :sudo docker 合成

檢查終端中的成功信息 。

wKgZomTDjLqARHlNAAnPWhie7D4460.png

圖7 圖7:成功信息

打開一個新的終端,檢查集裝箱是否使用以下命令運行:

sudo docker ps -–format 'table{{.Image}}t{{.Status}}t{{.Names}}' 

命令輸出應該顯示兩個 docker 容器邊緣 _ 視頻_分析_微觀服務和日食- 日食- 日食具有咨商地位或具有Up.

wKgaomTDjL2ASKlBAAC0J4XeIFI950.png

圖8:集裝箱運行中的集裝箱

利用REST請求,獲取集裝箱內現(xiàn)有模型和管道清單:

打開一個新的終端 。

運行以下命令以獲取微服務中可用的模型列表 :

curl --location -X GET 'http://localhost:8080/models'

運行以下命令以獲取微服務中可用的管道列表。 管道以名稱/ version tuple 顯示。 名稱反映動作, 版本提供此動作的更多細節(jié) 。

curl --location -X GET 'http://localhost:8080/pipelines' 


注:如果這些步驟由于代理問題而失敗,則提及排除故障段 次 頁 次

發(fā)送ReST請求以運行物體探測管道:

通過替換創(chuàng)建 REST 請求在下面的曲線命令中,您系統(tǒng)的 IP 地址為 IP 。 (如果您在 PRC 區(qū)域,請參考下面的第二個選項。 )
引用到自定義視頻分析管道請求以理解 " STP-REST " 申請格式。

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
    "uri": "https://github.com/intel-iot-devkit/sample-videos/raw/master/person-bicycle-car-detection.mp4?raw=true",
    "type": "uri"
  },
  "destination": {
    "metadata": {
      "type": "mqtt",
      "host": ":1883",
      "topic": "vaserving"
    },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  }
}'

對于 PRC 用戶,請使用下面顯示的鏈接替換在下面的卷軸命令中,使用您的系統(tǒng)的 IP 地址。
引用到自定義視頻分析管道請求以理解 " STP-REST " 申請格式。

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
    "uri": "file:///home/pipeline-server/resources/classroom.mp4",
    "type": "uri"
  },
  "destination": {
    "metadata": {
      "type": "mqtt",
      "host": ":1883",
      "topic": "vaserving"
    },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  }
}'


注:對于低于0.7.2的EVAM版本,在工作目錄不同時,對uri使用以下文字:檔案: /app/resources/lechroom.mp4

打開一個新的終端并運行修改的卷軸命令。 REST 請求將返回管道實例 ID, 可用于查詢管道狀態(tài) 。

例如,就第一期而言,根據(jù)請求,管道(例如,a6d67224eacc11ec9f360242c0a8603)將歸還,隨后又以遞增號返回請求。

檢查結果:?

顯示微服務日志的初始終端窗口現(xiàn)在顯示新發(fā)送請求的日志, 包括管道實例、 狀態(tài)和 RTSP 流鏈接。 管道狀態(tài)將顯示隊列、 運行和完成 。

wKgZomTDjMGARuSgAALaNdRfJvw625.png

圖9:核對結果

使用管道實例ID發(fā)送 Get 請求,檢查輸油管狀況:

curl --location -X GET 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike//status'

何 地是管道實例。
從GET請求中收到的答復與以下各點相似:

{
  "avg_fps": 27.014388149183596,
  "elapsed_time": 2.2934277057647705,
  "id": a6d67224eacc11ec9f360242c0a86003,
  "start_time": 1641468940.5196402,
  "state": "RUNNING"
} 

注:如果輸油管線已經(jīng)終止,那么國家將顯示為"COMPLETED".

打開 VLC 播放器中的輸出 RTSP 流, 以查看替換后輸入視頻上的推推結果在您的系統(tǒng) IP 地址的下列 URL 中:rtsp:// :8554/vasserving

請注意, 管道應該在 RUNNING 狀態(tài)下查看輸出視頻。 如果管道已經(jīng)結束, 請使用卷曲命令重新開始, 然后查看視頻 。

wKgaomTDjMyAbLDrAAUjOmFJKX8792.png

圖10: 推斷結果

發(fā)送 REST 請求的替代方法 :
REST請求也可以通過郵遞員應用程序發(fā)送,使用與前幾個步驟相同的卷曲命令。
要安裝 Postman 應用程序,請執(zhí)行以下步驟:

轉到郵差下載.

在想要的位置提取安裝文件 。

提取后,雙擊應用程序,并用您現(xiàn)有的賬戶簽名,或創(chuàng)建新賬戶簽名。

正在運行獨立版本

獨立版本的邊緣視頻分析分析微服務與 EVA 模式相似,不同之處在于它沒有任何 EII 組件,因此只能以 EVA 模式運行。結構結構圖圖,它是全容器圖像的脫光版。需要以下步驟才能運行獨立的微服務版本。

如果尚未完成, 請使用命令下載雙向視頻分析微服務獨立版本的 docker 圖像 :

$ docker pull intel/邊緣 _ 視頻_分析_微觀服務:1.0.0-standalone

為提升微服務,請使用以下命令:

$ docker run -itd --rm 
     -p 8080:8080 
     -p 8554:8554 
     -e ENABLE_RTSP=true 
     -e RTSP_PORT=8554 
     -e ENABLE_WEBRTC=true 
     -e WEBRTC_SIGNALING_SERVER=ws://localhost:8443 
     -e RUN_MODE=EVA 
     intel/邊緣 _ 視頻_分析_微觀服務:1.0.0-standalone

向輸油管服務器發(fā)送 REST 請求以運行 對象_ 分類/ 車輛/ 屬性管道。 以下 CURL 命令為我們這樣做 。 回復將包含管道例 id (例如: a6d67224eacc11ec11ec9f360242c0a8603) , 用于使用輸油管- 服務器狀態(tài) API 查詢管道狀態(tài) 。

$ curl localhost:8080/pipelines/object_classification/vehicle_attributes -X POST -H 
     'Content-Type: application/json' -d 
     '{
        "source": {
"uri": "https://github.com/intel-iot-devkit/sample-videos/blob/master/car-detection.mp4?raw=true",
"type": "uri"
        },
        "destination": {
"metadata": {
   "type": "file",
   "path": "/tmp/results.jsonl /tmp/results.jsonl /tmp/results.jsonl /tmp/results.jsonl",
   "format": "json-lines"
},
"frame": {
   "type": "rtsp",
   "path": "pipeline-server"
}
        },
        "parameters": {
"detection-device": "CPU"
        }
     }'

微觀服務處公布元元數(shù)據(jù)的推推到一個本地文件,可在以下網(wǎng)址查閱:/tmp/results.jsonl /tmp/results.jsonl /tmp/results.jsonl /tmp/results.jsonl處理后的框架還作為RTSP流提供,可在下列地點查閱:trtsp://localhost:8554/管道-服務器,并且可以使用 RTSP 查看器查看。

添加模型和定制管道

可使用可用的下載腳本下載更多模型here.

您可以查詢pipeline server docs創(chuàng)建自定義管道,并使用邊緣視頻分析微服務。

假設其他模型和管道分別以${pwd}/模型和${pwd}/管道提供,則設定了以下環(huán)境變量。

$ export MODEL_DIR=$(pwd)/models
$ export PIPELINE_DIR=$(pwd)/pipelines

為提升微服務,請使用以下命令:

$ docker run -itd --rm 
     --privileged 
     --device=/dev:/dev 
     --device-cgroup-rule='c 189:* rmw' 
     --device-cgroup-rule='c 209:* rmw' 
     --group-add 109 
     -p 8080:8080 
     -p 8554:8554 
     -e ENABLE_RTSP=true 
     -e RTSP_PORT=8554 
     -e ENABLE_WEBRTC=true 
     -e WEBRTC_SIGNALING_SERVER=ws://localhost:8443 
     -e RUN_MODE=EVA 
     -e DETECTION_DEVICE=CPU 
     -e CLASSIFICATION_DEVICE=CPU 
     -v ${MODEL_DIR}:/home/pipeline-server/models 
     -v ${PIPELINE_DIR}:/home/pipeline-server/pipelines 
     intel/邊緣 _ 視頻_分析_微觀服務:${TAG}

正在運行 iGPU 上的推斷

要啟用對 iGPU 推論的支持, 您將需要將額外的旗幟傳遞到 docker 運行命令上, 詳情如下 。

$ docker run -itd --rm 
     --privileged 
     --device=/dev:/dev 
     --device-cgroup-rule='c 189:* rmw' 
     --device-cgroup-rule='c 209:* rmw' 
     --group-add 109 
     -p 8080:8080 
     -p 8554:8554 
     -e ENABLE_RTSP=true 
     -e RTSP_PORT=8554 
     -e ENABLE_WEBRTC=true 
     -e WEBRTC_SIGNALING_SERVER=ws://localhost:8443 
     -e RUN_MODE=EVA 
     intel/邊緣 _ 視頻_分析_微觀服務:${TAG}

可選: 帶視頻分析測試模塊進行測試

安裝完成后,您可通過運行視頻分析測試模塊測試您的設置。

詳情,請參見Intel? Edge Software Device Qualification (Intel? ESDQ) for Video Analytics.

教腳

教程1: 在 GPU 上運行物件探測管道

此教程將演示如何更改運行 GPU 上的推論的推論設備 。
您將再次運行相同的對象_ 檢測管道, 但這次您將使用集成的 GPU 進行檢測推理, 設置檢測- 檢測設備參數(shù) 。

完成所有步驟Get Started上文一節(jié)。

在目標設備上,檢查以下命令的輸出并獲得設備組:

stat -c '%g' /dev/dri/render*

在 docker-competect.yml 文件中添加設備組 :

    group_add:
      - 109

通過替換創(chuàng)建 REST 請求the 在下面的卷軸命令中,使用您的系統(tǒng)的 IP 地址。
請注意REST機體的參數(shù)部分。

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
      "uri": "https://github.com/intel-iot-devkit/sample-videos/raw/master/person-bicycle-car-detection.mp4?raw=true",
      "type": "uri"
  },
  "destination": {
      "metadata": {
        "type": "mqtt",
        "host": ":1883",
        "topic": "vaserving"
      },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  },
    "parameters": {
        "detection-device": "GPU"
   }
}' 

注:
GPU 電導內插在首次裝入時動態(tài)構建 OpenCL 內核,導致產(chǎn)生推論結果前的延遲 ~ 30 秒。
Additional configuration might be needed to run inference on GPU depending on the HW. Refer Configurations for Intel? Processor Graphics (GPU) to download和install install_NEO_OCL_driver.sh (system reboot might be needed).

打開一個新的終端并運行卷軸命令。 REST 請求將返回管道實例 ID (例如, a6d67224eacc11ec9f360242c0a8603) , 可用于查詢管道狀態(tài) 。

校對結果運行邊緣視頻分析以上步驟。

教學圖2:使用 USB 相機輸入的 RUN 邊緣視頻分析分析微觀服務

在此教程中, 您將把物體探測管道的輸入源更改為 USB 相機 。

完成所有步驟Get Started上文一節(jié)。

在Ubuntu上,通過執(zhí)行以下命令,列出所有可用的視頻設備:是/dev/Vide*

創(chuàng)建 curl 請求, 以便使用視頻設備作為源。 例如, 如果命令的輸出為 / dev/ Video0, 那么對 curl 命令源進行如下修改 :

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
      "device": "/dev/video0",
      "type": "webcam"
  },
  "destination": {
      "metadata": {
        "type": "mqtt",
        "host": ":1883",
        "topic": "vaserving"
      },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  }
}' 

打開一個新的終端并運行卷軸命令。 REST 請求將返回管道實例 ID (例如, a6d67224eacc11ec9f360242c0a8603) , 可用于查詢管道狀態(tài) 。

校對結果運行邊緣視頻分析以上步驟。

注意: 請確定設備源參數(shù)中使用了正確的設備節(jié)點 。

教程 3: 在邊緣視頻分析微服務中以新模式運行新管道

在此教程中, 您將創(chuàng)建一個基于 人- 檢測管道的新管道, 它將使用 人- 檢測- retail- 0013 模型。 管道和模式文件夾將被安裝到邊緣視頻分析微服務上, 無需重建 Docker 圖像。 您可以遵循同樣的步驟創(chuàng)建任何新的管道 。

完成所有步驟Get Started上文一節(jié)。

下載新模型。
要從開放型動物園下載新模型,請在模型中添加模型細節(jié)。 list. yml 顯示于 Edge_Video_Analytics_Resources/models_list 路徑中。
對于人-檢測-零售-0013,在文件模型.list.yml的結尾處添加以下條目。

- model: person-detection-retail-0013
  alias: object_detection
  version: person_detection
  precision: [FP16,FP32] 

然后,在一個新的終端中運行以下命令,下載模型。

cd 視頻分析/Video_Analytics_/Edge_Video_Analytics_Resources/
# 何 地 is the Package version downloaded

sudo ./工具/模型下下加載器/model_downloader.sh --model-list models_list/models.list.yml

命令執(zhí)行完成后,下載的模型人-探測儀應在模型/物體-探測目錄下提供。
如果您沒有使用來自開放型動物園的模型,請在模型目錄中直接復制您的模型。

wKgZomTDjNCASSs7AACrpu95hnk262.png

圖11:下載新模型

創(chuàng)建新管道
您將在管道/ 目標/ 探測中創(chuàng)建一個新的管道。 既然您正在以現(xiàn)有人_ 車輛_ 自行車管道為基礎, 請復制人_ 車輛_ 自行車文件夾, 將其重命名為人_ 探測, 然后更新管道.json , 以便使用新模式 。
在同一終端中( 從路徑 Edge_ Video_Analytics_Resources) 執(zhí)行命令 :

sudo cp -r pipelines/object_detection/person_vehicle_bike/ pipelines/object_detection/person_detection

在新復制的管道/物體/探測/人/探測/管道.json中,編輯管道.json文件的模板和說明部分。 json使用以下線條,將示范路徑指定為模型/物體/探測/人/探測,以便使用模型人-探測-零售-0013來探測物體。
將模板定義為 :

	"template": ["uridecodebin name=source"," ! gvadetect model={models[object_detection][person_detection][network]} name=detection"," ! gvametaconvert name=metaconvert ! gvametapublish name=destination"," ! appsink name=appsink"
	], 

說明的定義是:

"description": "Person Detection based on person-detection-retail-0013",

請參見界定媒體分析管道了解輸油管模板和界定自己的輸油管。

使用添加了模型和管道的微型運行服務
以命令啟動應用程序 :

sudo docker 合成 

此步驟會大量掛載模型和管道目錄。 您可以在一個單獨的終端中檢查容器是否正在使用 sudo docker ps 命令運行 。

檢查新的管道和模式
打開一個新終端并運行以下命令以獲取可用的模型列表 :

curl --location -X GET 'http://localhost:8080/models'

運行以下命令以獲取管道列表 。 管道以名稱/ version tuple 顯示。 名稱反映動作, 版本提供動作的更多細節(jié) 。

curl --location -X GET 'http://localhost:8080/pipelines'

您應該看到列表中新添加的管道和模型 。

對象_ 檢測/ 人_ 檢測運行管道
打開一個新的終端并輸入下面的曲線命令,用于下文給出的物件_ 檢測/ 人_ 檢測管道:

curl --location -X POST 'http://localhost:8080/pipelines/object_detection/person_detection' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
      "uri": "https://github.com/intel-iot-devkit/sample-videos/raw/master/store-aisle-detection.mp4?raw=true",
      "type": "uri"
  },
  "destination": {
      "metadata": {
        "type": "mqtt",
        "host": ":1883",
        "topic": "vaserving"
      },
    "frame": {
      "type": "rtsp",
      "path": "vasserving"
    }
  }
}' 

何 地 is the IP address of the system.
The above curl command returns the pipeline instance. Use this pipeline instance to get the status by updating the in the below command:

curl --location --request GET 'http://localhost:8080/pipelines/object_detection/person_detection//status'  
wKgaomTDjNaAFIvbAATvck6Ists738.png

圖12: 人員探測運行管道

微服務日志將顯示,天體探測/人探測管道實例已經(jīng)建立,管道狀態(tài)已經(jīng)改為RUNNING,并結束了。

wKgaomTDjNmANRisAALLaxOiTCY108.png

圖13:管道日志

教程 4: 安裝邊緣視頻分析外殼圖

注:此教程從第2022.1號釋放起支持。

注:此教義假設您有一個寬網(wǎng)可用分組 。

在此教程中, 您將使用制導圖在 寬網(wǎng) 群集中部署邊緣視頻分析微服務。 使用 drawnchart 組合圖 。 用于樣本部署的 Guard 圖表包 邊緣視頻分析微服務和 MQTT 經(jīng)紀人。 要下載制導圖, 請使用定制的下載選項 。

完成所有步驟Get Started Guide. When the installation is complete, you see the message?“Installation of package complete”和the installation status for each module.

wKgZomTDjN6ALvYuAAGxiIA5Wv8367.png

圖14:成功安裝

將模型、管道和資源文件夾復制到 /可選/英特爾/評價/庫伯涅茨工人節(jié)點。

上述先決條件完成后,安裝如下圖表:helm install evam ./chart/

wKgaomTDjOOAFot6AAQKVfFGRaM733.png Figure 15: Chart Installation

Get the IP IP 地址 :

kubectl get pods -o wide

wKgaomTDjOiAf-heAAFvZ0IGhFA248.png Figure 16: Retrieving IP Address

更新管道請求指令以觸發(fā)管道。 替換EVAM_POD_IP, MQTT_POD_IP上面有 IP 地址 。

curl --location -X POST 'http://:8080/pipelines/object_detection/person_vehicle_bike' 
--header 'Content-Type: application/json' 
--data-raw '{
  "source": {
      "uri": "file:///home/pipeline-server/resources/person-bicycle-car-detection.mp4",
      "type": "uri"
  },
  "destination": { 
      "metadata": {
        "type": "mqtt",
        "host": ":1883",
        "topic": "vaserving"
      }
  }
}'

注:使用 GitHub URL 支持代理服務器網(wǎng)絡時, 視頻文件使用 GitHub URL 可能無法工作 。 相反, 下載視頻文件并添加到資源目錄/可選/英特爾/評價立方公尺內立體體體積的路徑。

獲取 MQTT 訂閱者的推斷輸出 :

docker run -it --entrypoint 約克基多_sub  日食- 日食- 日食:latest --topic vaserving -p 1883 -h 

wKgZomTDjO2AQoQ6AAUf5SZUD2U515.png Figure 17: Inference Output

概述和下一步步驟

使用“邊緣視頻分析微服務” 學習如何進行視頻分析。

學習更多

繼續(xù)學習,見下列指南和軟件資源:

GitHub

Docker Image

Helm Charts (概覽概覽)

Microservice Endpoints

自定義視頻分析管道請求

界定媒體分析管道

Intel? Edge Software Device Qualification (Intel? ESDQ) for Video Analytics

排除故障

確保您在完全安裝期間有一個活躍的互聯(lián)網(wǎng)連接。 如果您隨時失去互聯(lián)網(wǎng)連接, 安裝可能會失敗 。

如果安裝在從 Intel 注冊處下載和提取圖像時失敗安裝, 然后重新運行安裝命令sudo ./edgesoftware install通過提供產(chǎn)品鑰匙。
wKgZomTDjPGAYQiFAAEjKf0Dn6M292.png

確保您正在使用一個新的 Ubuntu* 安裝。 早期軟件, 特別是 Docker 和 Docker Compose 可能會引起問題 。

在代理環(huán)境中,如果設定了單一用戶代理(即. bashrc 鍵) 然后部分組件安裝可能失敗或安裝掛掛掛。 請確定您已經(jīng)設置了代理服務器/貝茨/環(huán)境.

如果您的系統(tǒng)在代理服務器網(wǎng)絡中, 請在環(huán)境環(huán)境欄內docker- competable. yml 轉換器文件。

HTTP_PROXY=http:///
HTTPS_PROXY=http:////
NO_PROXY=localhost,127.0.0.1 


輸入代理代理服務器的詳細信息docker- competable. yml 轉換器顯示如下:

wKgaomTDjPSAfuVYAADc2HbLunA816.png

如果缺少代理細節(jié), 則無法獲取運行管道所需的源視頻文件, 并在容器內安裝所需的包件 。
wKgaomTDjPeAVjGIAAMxGLcNyek252.png

運行命令sudo - E docker 合成(參考步驟8(安裝邊緣視頻分析微觀服務)

在自定義模式下, 如果目標設備在代理服務器后面, Helm CLI 安裝可能會失敗。 要修正它, 請更新 apag 代理服務器的細節(jié) 。

sudo snap set system proxy.http=http:////
sudo snap set system proxy.https=http:////

如果集裝箱顯示有沖突錯誤,則停止/刪除集裝箱。
要刪除邊緣 _ 視頻_分析_微觀服務和mqtt_ 經(jīng)紀人,使用以下任何一種備選辦法:

執(zhí)行下列命令:

sudo docker stop 邊緣 _ 視頻_分析_微觀服務 mqtt_ 經(jīng)紀人
sudo docker rm 邊緣 _ 視頻_分析_微觀服務 mqtt_ 經(jīng)紀人

或者運行sudo docker 合成向下從路徑 :視頻分析/Video_Analytics_/Edge_Video_Analytics_Resources

wKgZomTDjP2APAlSAAInPo4h9vE772.png

支助論壇支助論壇

If you're unable to resolve your issues, contact the?支助論壇支助論壇.?

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 視頻分析
    +關注

    關注

    0

    文章

    30

    瀏覽量

    10860
  • 邊緣
    +關注

    關注

    0

    文章

    26

    瀏覽量

    2032
收藏 人收藏

    評論

    相關推薦

    一文讀懂邊緣計算盒子在視頻監(jiān)控場景中的重要作用

    ,為視頻監(jiān)控場景帶來了革命性的變革。邊緣計算盒子,作為一種集成了邊緣計算和人工智能技術的智能設備,其核心優(yōu)勢在于能夠實時處理和分析視頻數(shù)據(jù),
    的頭像 發(fā)表于 01-08 15:11 ?135次閱讀
    一文讀懂<b class='flag-5'>邊緣</b>計算盒子在<b class='flag-5'>視頻</b>監(jiān)控場景中的重要作用

    AI模型部署邊緣設備的奇妙之旅:邊緣端設備的局域網(wǎng)視頻流傳輸方案

    1、簡介隨著物聯(lián)網(wǎng)(IoT)和智能設備的快速發(fā)展,邊緣計算技術已成為高效數(shù)據(jù)處理和服務交付的重要組成部分。當我們考慮利用邊緣端設備進行實時監(jiān)控時,一個常見的需求是通過攝像頭捕捉視頻,并在局域網(wǎng)內實現(xiàn)
    的頭像 發(fā)表于 01-04 12:00 ?134次閱讀
    AI模型部署<b class='flag-5'>邊緣</b>設備的奇妙之旅:<b class='flag-5'>邊緣</b>端設備的局域網(wǎng)<b class='flag-5'>視頻</b>流傳輸方案

    邊緣計算與邊緣設備的關系

    能夠在數(shù)據(jù)采集源附近實時處理和分析。這種方法可以降低網(wǎng)絡延遲、減少數(shù)據(jù)傳輸成本,并實現(xiàn)實時反饋和決策。 邊緣設備 邊緣設備是指在物理上位于邊緣網(wǎng)絡中的計算設備。這些設備可以是智能手機、
    的頭像 發(fā)表于 10-24 14:33 ?419次閱讀

    如何選擇合適的邊緣ai分析一體機解決方案

    在當今數(shù)字化轉型的浪潮中,智能邊緣分析一體機作為邊緣計算與人工智能融合的杰出代表,正逐步成為各行業(yè)數(shù)字化轉型的關鍵基礎設施。面對市場上琳瑯滿目的邊緣AI分析一體機產(chǎn)品,如何精準選擇最適
    的頭像 發(fā)表于 08-08 15:25 ?273次閱讀
    如何選擇合適的<b class='flag-5'>邊緣</b>ai<b class='flag-5'>分析</b>一體機解決方案

    DSP國產(chǎn)教學實驗箱_實驗案例_操作教程:5-11 邊緣檢測

    搜索,可到達的點是邊緣,不可到達的點不是邊緣。 (5)利用滯后技術來跟蹤邊界。 程序流程設計 程序流程設計中首先要讀取工程目錄下的BMP圖像,接著進行邊緣檢測處理,最后保存處理后的圖像。
    發(fā)表于 07-19 10:38

    邊緣計算網(wǎng)關是什么

    ? 邊緣計算網(wǎng)關(Edge Computing Gateway)是一種位于網(wǎng)絡邊緣的設備,它可以在本地處理和分析數(shù)據(jù),從而減少對中心服務器的依賴。邊緣計算網(wǎng)關的主要目的是將數(shù)據(jù)處理任務
    的頭像 發(fā)表于 06-12 15:33 ?643次閱讀
    <b class='flag-5'>邊緣</b>計算網(wǎng)關是什么

    ai邊緣盒子有哪些用途?ai視頻分析邊緣計算盒子詳解

    近年來,隨著人工智能和邊緣計算的發(fā)展,一種名為AI邊緣盒子的新型設備正逐漸引起廣泛關注。作為一種集成了邊緣計算和AI算法處理能力的設備,AI邊緣盒子在各個領域的應用前景廣闊,為智慧生活
    的頭像 發(fā)表于 05-29 14:24 ?1052次閱讀
    ai<b class='flag-5'>邊緣</b>盒子有哪些用途?ai<b class='flag-5'>視頻</b><b class='flag-5'>分析</b><b class='flag-5'>邊緣</b>計算盒子詳解

    基于FPGA的實時邊緣檢測系統(tǒng)設計,Sobel圖像邊緣檢測,F(xiàn)PGA圖像處理

    摘要 :本文設計了一種 基于 FPGA 的實時邊緣檢測系統(tǒng) ,使用OV5640 攝像頭模塊獲取實時的視頻圖像數(shù)據(jù),提取圖像邊緣信息并通過 VGA顯示。FPGA 內部使用流水線設計和 并行運算加速
    發(fā)表于 05-24 07:45

    智能邊緣網(wǎng)關的功能有哪些?

    的功能,并探討其在智能時代的重要作用。 一、實時數(shù)據(jù)處理與分析 智能邊緣網(wǎng)關具備高效的實時數(shù)據(jù)處理能力,能夠在設備端對數(shù)據(jù)進行即時處理和分析。這得益于其集成的計算、存儲和網(wǎng)絡功能,使得邊緣
    的頭像 發(fā)表于 04-25 16:55 ?558次閱讀

    淺談電氣火災的分析和預防

    淺談電氣火災的分析和預防 張穎姣 安科瑞電氣股份有限公司?上海嘉定 201801 摘要:電氣火災主要是由于電氣故障等原因引起的,文章對電氣火災的過程、產(chǎn)生原因和特點進行了分析,指出了電氣火災的危害
    的頭像 發(fā)表于 03-12 10:18 ?424次閱讀
    <b class='flag-5'>淺談</b>電氣火災的<b class='flag-5'>分析</b>和預防

    淺談邊緣計算在綜合管廊監(jiān)控系統(tǒng)應用

    程瑜 安科瑞電氣股份有限公司 上海嘉定 201801 摘要:本文介紹了基于邊緣計算技術及其特點,根據(jù)綜合管廊監(jiān)控系統(tǒng)需求分析了NiagaraFramework的JACE8000系統(tǒng)控制的功能,并
    的頭像 發(fā)表于 03-11 14:24 ?465次閱讀
    <b class='flag-5'>淺談</b><b class='flag-5'>邊緣</b>計算在綜合管廊監(jiān)控系統(tǒng)應用

    邊緣計算網(wǎng)關與邊緣計算的融合之道

    隨著物聯(lián)網(wǎng)、大數(shù)據(jù)和人工智能的飛速發(fā)展,數(shù)據(jù)處理和分析的需求呈現(xiàn)出爆炸式增長。傳統(tǒng)的中心化數(shù)據(jù)處理模式已難以滿足實時性、低延遲和高帶寬的需求,邊緣計算應運而生,成為解決這一難題的關鍵技術。而邊緣計算
    的頭像 發(fā)表于 02-26 16:29 ?497次閱讀
    <b class='flag-5'>邊緣</b>計算網(wǎng)關與<b class='flag-5'>邊緣</b>計算的融合之道

    視頻光纖矩陣與傳統(tǒng)視頻傳輸方式的比較分析

    傳統(tǒng)視頻傳輸方式和視頻光纖矩陣進行比較分析。 傳統(tǒng)視頻傳輸方式 : 優(yōu)勢 : 成本較低 :傳統(tǒng)的視頻傳輸方式,如同軸電纜、雙絞線等,其材料成
    的頭像 發(fā)表于 02-19 14:58 ?593次閱讀

    最新的視頻編碼技術突破:基于采樣的梯度邊緣與角預測(SGAP)

    IT之家特此強調:SGAP高度重視提升圖像中邊緣區(qū)域、平滑區(qū)域以及方向紋理區(qū)域的預測準確性,解決了在無損視頻質量前提下降低比特率的重大問題。
    的頭像 發(fā)表于 02-19 11:27 ?602次閱讀

    什么是邊緣計算?邊緣計算技術有哪些優(yōu)缺點?

    什么是邊緣計算?邊緣計算技術有哪些優(yōu)缺點? 邊緣計算是一種將計算和數(shù)據(jù)處理能力從傳統(tǒng)的云計算數(shù)據(jù)中心移動到離數(shù)據(jù)源更接近的位置的計算模型。在邊緣計算中,數(shù)據(jù)處理和
    的頭像 發(fā)表于 02-06 14:38 ?1836次閱讀
    主站蜘蛛池模板: 亚洲国产成人在线视频 | 高h肉辣文黄蓉 | 奶头被客人吸得又红又肿 | 午夜剧场1000| 阿力gv资源 | 黄色三级图片 | 亚洲日本国产综合高清 | 最近中文字幕在线看免费完整版 | 一区三区三区不卡 | 好男人好资源视频高清 | 在线中文字幕网站 | 丰满女朋友在线观看中文 | 国产三级视频在线 | 国产成人精品免费视频大 | 中文字幕专区高清在线观看 | 国产精品外围在线观看 | 欧亚一卡二卡日本一卡二卡 | 亚洲 制服 欧美 中文字幕 | 一级am片欧美 | 性感尼姑风流寺 | 99久久久A片无码国产精 | 无码11久岁箩筣 | 噼里啪啦免费观看视频大全 | 亚洲AV久久婷婷蜜臀无码不卡 | 亚洲人成色777777老人头 | 国产成人精品自线拍 | 99精品视频在线观看免费播放 | 自拍偷拍12p | 亚洲视频成人 | 亚洲一区国产 | 成人国产亚洲精品A区天堂蜜臀 | 岛国片在线免费观看 | 青青伊人影院 | 亚洲黄色在线播放 | 国产 亚洲 另类 欧美 在线 | 2019中文字幕乱码免费 | 成年女人色毛片免费 | 麻豆传煤网站网址入口在线下载 | 97超级碰久久久久香蕉人人 | 啊灬啊灬啊灬快灬深高潮啦 | 高H短篇辣肉纯肉 |