本站原創(chuàng)!
(電子發(fā)燒友網(wǎng)報道 文/章鷹)近日,在雷鋒網(wǎng)舉辦的全球人工智能與機器人峰會上,中國工程院院士、鵬城實驗室主任,CCF會士、IEEE Fellow高文帶來最新的《城市大腦2.0-邊端云處理分工的人工智能賦能系統(tǒng)》報告解讀。
根據(jù)資料顯示,“城市大腦”一詞誕生于2016年的杭州,從面世至今僅僅三年,就吸引了全世界的目光, 在產(chǎn)業(yè)領域,2016年阿里提出阿里城市大腦,2017年,華為提出城市神經(jīng)網(wǎng)絡,2018年,騰訊提出城市超級大腦。高文院士解讀說,城市大腦1.0,是一個以云計算為核心的系統(tǒng),目前的痛點是由于系統(tǒng)各部分沒有很好的協(xié)調分工機制,使得系統(tǒng)成本高、響應速度慢、數(shù)據(jù)的可利用率低。
高文院士指出,城市大腦1.0到2.0,從云計算中心,轉變?yōu)槎诉呍茀f(xié)同體系。城市大腦是智慧城市的核心系統(tǒng),將算力和數(shù)據(jù)匯聚到一起;通過數(shù)據(jù)的匯聚、治理、計算、分析、挖掘和調度,完成數(shù)據(jù)的全流程加工,面向行業(yè)提供不同層次的產(chǎn)品和服務。加入算法,產(chǎn)生出好的結果。
城市大腦是智慧城市的核心,基于互聯(lián)網(wǎng)數(shù)據(jù)、政務數(shù)據(jù)集合在一起,得到好的結果。從城市傳感器匯集來的90%的是圖像、視頻數(shù)據(jù)、乘車數(shù)據(jù),汽車行駛當中的交通數(shù)據(jù),這些大多從視頻攝像頭得來。一類是從攝像頭和視頻端口,簡單的進行視頻壓縮,然后上傳到云端,然后進行分析,包括人臉識別、車輛識別、交通分析。第二類是智能終端,比如通過人臉識別機、車輛識別機將有價值的信息識別出來,送到云端,進行分析和使用。
高文院士分析說,城市大腦1.0目前面對兩大挑戰(zhàn):第一、海量數(shù)據(jù)不等于大數(shù)據(jù),數(shù)據(jù)表達不到位,第二、數(shù)據(jù)海量,但是低價值。這些數(shù)據(jù)的價值也比較低,它不是結構化的,你無法在上面進行分析,這也是為什么很多智慧城市的視頻數(shù)據(jù),一段時間之后就被覆蓋了。他指出,城市大腦的評測指標包括城市智力,性能(響應時間、并發(fā)、吞吐)、效率(單位的能耗產(chǎn)出)。比如高速車輛超速、交通情況預警、社區(qū)門禁開門等場景,都需要第一時間響應。一個規(guī)模城市的視頻接入量在10-100萬級別,IoT設備,更在1000萬以上。
需要強調的是,城市大腦1.0需要解決城市級大數(shù)據(jù)的傳輸匯聚,低碳大容量存取、海量數(shù)據(jù)高效調度及應用適配問題。目前,城市大腦1.0版本中,具備有海量數(shù)據(jù)的系統(tǒng),90%的數(shù)據(jù)是沒有結構化,數(shù)據(jù)價值沒有辦法進行直接分析和利用。必須采取新的結構來對視頻信息進行特征提取和視頻解碼,高文院士就引用了人類視網(wǎng)膜系統(tǒng)進行解說。
人類的視網(wǎng)膜的結構由三類細胞組成,包括感光細胞、雙極細胞和神經(jīng)節(jié)細胞,其中1.2億感光細胞,可以感知顏色、光線強弱。神經(jīng)節(jié)細胞相對較少,只有100萬個,從視網(wǎng)膜、視神經(jīng)有125:1緊縮,我們理解為視覺信號的壓縮,壓縮對于大腦有效的工作起到關鍵作用。根據(jù)任務簡單和復雜程度,提取的視覺特征不同,簡單的任務優(yōu)先提取相關的特征,一個分布型的簡化模型,是從視網(wǎng)膜到大腦,整個過程就是經(jīng)過特征提取和編碼壓縮,傳輸?shù)街悄苤黧w-大腦,大腦是通用計算。視網(wǎng)膜是進行輕量級定制計算,通過視覺神經(jīng)通道傳給大腦,生物視覺系統(tǒng)的簡化模型有很大的作用。
高文院士指出,仿真生物視網(wǎng)膜的視覺計算架構具備優(yōu)勢:包括智能化的端邊側使系統(tǒng)更加靈活,云側作為智能主題更加強大,優(yōu)化的存儲傳輸使系統(tǒng)更經(jīng)濟。
城市大腦2.0版本發(fā)布,最核心的技術是仿生生物視網(wǎng)膜的視覺計算架構,三大特征:第一、全局統(tǒng)一的時空ID,包括全網(wǎng)統(tǒng)一的時間,提供精確地理位置(GPS、北斗),還有提供攝像機視角,參數(shù)信息;第二、多層次視網(wǎng)膜表示:視頻編碼、特征編碼和聯(lián)合優(yōu)化;第三、模型可以更新(支持端/邊深度學習模型的自適應遷移)+注意可調節(jié)+軟件可以定義(支持端邊云協(xié)同計算與推理,實現(xiàn)特征實時匯聚與視頻按需調取)
2019年9月,華為海思發(fā)布了全球首顆基于AVS3標準的、支持8K分辨率、120fps的超高清芯片Hi3796CV300。華為海思這款芯片已經(jīng)裝配在4K/8K電視,4K/8K機頂盒中。
相比于上一代視頻編碼標準,AVS3在塊劃分結構、參考幀管理、預測、變換等模塊都有創(chuàng)新,增加了很多新的編碼技術,大幅提升了編碼效率。AVS3基準檔次起草完成,將于2022年投入應用,中國的AVS3+5G+8K產(chǎn)業(yè)發(fā)展將領先全球部署。AVS3標準將對8K產(chǎn)業(yè)的推動和發(fā)展起到強大的推動作用。高文院士介紹說,視頻編碼對應MPEG7 CDVS標準,花了4年時間做出標準,用于深度學習的視頻匹配,CDVA視頻檢索流水線,花了三年多時間完成的。深度學習做出來視覺檢索和匹配。聯(lián)合優(yōu)化就是在視頻編碼和特征編碼之間找到最優(yōu)的結合點,使得兩大特征捆綁到一起,效果是最優(yōu)的。
據(jù)高文院士介紹,2019 年11月22日,杭州博雅鴻圖視頻技術有限公司發(fā)布了數(shù)字視網(wǎng)膜首顆芯片“鴻芯圖騰GV9531”,實現(xiàn)了對數(shù)字視網(wǎng)膜技術的完整詮釋。實現(xiàn)對上百路視網(wǎng)膜信息的篩選。除了數(shù)字視網(wǎng)膜以外,我們正在牽頭推動中國首批AI技術國家標準。包括《神經(jīng)網(wǎng)絡模型表示與壓縮》標準,這些標準的開發(fā)路線圖如下表。數(shù)字視網(wǎng)膜是三種標準合作的一個系統(tǒng),
數(shù)字視網(wǎng)膜系統(tǒng)賦能城市大腦2.0,模仿人類視網(wǎng)膜機理,通過算法和計算對視頻逐級提取和濃縮,為大數(shù)據(jù)云計算提供高質量的視頻信息數(shù)據(jù)。
高文院士總結說,城市大腦2.0,是一個端邊云分工協(xié)調的混合系統(tǒng)架構,可以有效解決城市大腦1.0的大部分問題。數(shù)字視網(wǎng)膜及其標準化,是城市大腦2.0的核心:包括先進視頻編碼技術:節(jié)能存儲和帶寬50%以上;定制ASIC邊緣計算:節(jié)省云計算資源90%以上;原始圖像上特征提?。旱脱訒r和高精度;標準化特征的提取,存儲和復用:顯著提升信息密度和價值。
本文由電子發(fā)燒友網(wǎng)原創(chuàng),未經(jīng)授權禁止轉載。如需轉載,請?zhí)砑游⑿盘杄lecfans999。
-
海思
+關注
關注
43文章
462瀏覽量
116473 -
AI芯片
+關注
關注
17文章
1894瀏覽量
35103
發(fā)布評論請先 登錄
相關推薦
評論