“計算機視覺的前端成像技術,背后是至少100億數量級的龐大需求!”下面就隨汽車電子小編一起來了解一下相關內容吧。
在日前剛結束的2018 AWE現場,身為眼擎科技CEO的朱繼志,滿懷激動的下了這么一個結論。
朱繼志說話的語氣非常篤定,因為他們的eyemore X42芯片上市不到兩個月,就已一路高歌,初露崢嶸。而業內對eyemore X42的看法是:這款全球第一款完全自主研發并正式對外發布的AI視覺成像芯片將“引領AI機器進入視覺2.0時代”。
既然這款芯片目前在國內甚至全球同領域內屬于獨一份,好奇之下,我們不禁就和他多聊了幾句。
2018將是AI落地第一年,視覺市場規模潛力巨大
近幾年,人工智能的火熱是毋庸置疑的,上到國家兩次將其寫入政府工作報告,下到雨后春筍般出現的各種AI公司,所有這些都在昭示著一個嶄新的人工智能時代即將到來。
同樣的,在眾多的AI技術和應用中,計算機視覺是最大的切入點和最具潛力的領域。畢竟,在我們獲取的全部信息中,視覺信息的比例達到了80%以上,因此,這將是一個前景無限的市場方向。
計算機視覺的應用領域幾乎涵蓋了我們所知的所有行業,自動駕駛、金融風控/交易、安防、新零售、智能手機、機器人......
國內計算機視覺領域,商湯和曠世算是兩只最大的獨角獸,而他們于去年上演的融資競賽更是吸引了無數業內人士的目光:先是2017年7月,商湯科技B輪融資4.1億美元,接著道10月31日,曠視科技Face++又宣布獲得4.6億美元C輪融資,隨后商湯即傳出接受阿里15億元投資的消息......
不用多說什么,僅從這一連串創紀錄的融資金額中,我們就可以感受到計算機視覺在AI界的熱度。
據相關研究報告預計,2018年全球計算機視覺市場規模將達到50億美元左右,而到2020年,中國計算機視覺市場規模將增長至725億元,未來前景極為廣闊。
“2016年是AI的概念年,2017年是demo年,2018年是落地第一年。”朱繼志認為,在未來的三年內,AI會很快的實現更為廣泛的落地應用 。
“盡管現在整個產業很多技術都還有一些問題,但是其整體架構已經出來了。”朱繼志說。
深耕前端成像領域,視覺2.0將為產業生態帶來質變
眾所周知的是,目前國內AI視覺領域的科技企業,幾乎都在使用傳統攝像頭,都把焦點集中在對圖像的后端處理上。這就導致了一個尷尬的現象:絕大多數的AI公司算法足夠優秀,但前端成像技術不過硬,導致實際落地時機器的“眼睛”不能適應外界光線變化,識別效果差的尷尬局面。
以自動駕駛汽車為例,在諸如車輛經過隧道、對面駛來的車開大燈、夜間紅綠燈被道路景觀燈遮擋/干擾、夜色漆黑伸手不見五指等等異常情況下,往往會由于識別不準而發生行車事故;
同樣,安防領域也會因為紅外黑白畫面和逆光的人臉發黑而無法識別、工業檢測中會有因為高光和反光導致無法檢測的情形等等。
“在復雜的光線環境下,AI機器獲取的圖像信噪比會受到極大影響,這是導致市場上AI視覺產品難以落地的最大原因。”朱繼志認為,要徹底解決這一難題,關鍵在于做好AI視覺產品的前端成像。
要克服AI機器在復雜光線下的圖像識別,就要首先解決圖像的獲取和前端處理。目前,業內主流的解決方案有3種。
第一種就是我們所熟知的激光雷達,在光線不好的情況下,通過主動發射激光并利用光線反射來獲取物體的圖像和三維信息。激光雷達的優點非常明顯,它可以獲得極高的角度、距離和速度分辨率,同時也具有良好的抗干擾能力。
不過,受限于巨大的體積和昂貴的價格(各類32線、42線、64線等型號產品,價格動輒數萬數十萬甚至上百萬,雖然在持續降低,但依然不親民),它正在被邊緣化。正如馬斯克所說的,“激光雷達就像一根拐杖”。這個比喻很恰當,視覺能力不行的時候,需要依靠激光雷達這樣的拐杖,但拿著拐杖卻是永遠跑不快的。
剩下的兩種方案則都是在相機和成像處理的基礎上加以改進。首先是陣列計算相機技術,原理有點類似于蜻蜓、蒼蠅等多目昆蟲的復眼,通過數個、數十個甚至上百個相機組成的陣列,拍攝出擁有億級以上像素的動態圖像,為AI機器提供視覺支持。
目前,這一技術尚在研發階段,受限于體積和供應鏈的制約,其產品也還處在落地的早期階段。
第三種方案,即是眼擎科技所做的,AI視覺前端成像引擎芯片eyemore X42。
據朱繼志介紹說,眼擎所做的這種方式,像人的眼睛一樣,核心是把人的眼睛視力弄好——解決AI機器在各種光線下自動適應光線的能力。
“我們堅信,以后AI機器的眼睛應該和我們人類一樣,以后它們的視力一定不會比人眼差,甚至比人眼強。這就是我們創業的初衷,我們要從根本上解決AI的視力問題。”
眼擎eyemore X42芯片,視覺2.0時代的AI機器成像引擎
關于AI視覺,馬斯克曾經提出過“全天候被動光學圖像識別”的概念,就是要解決復雜光線,包括弱光、逆光、反光下的精準識別,這也是AI機器要解決的剛需問題。眼擎科技把這種自動適應光線的視覺,稱之為“視覺2.0”。
2018年1月19日下午,在2018極客公園創新大會上,國內AI視覺成像芯片科技公司眼擎科技正式對外發布“eyemore X42”芯片。據悉,eyemore X42是全球第一款完全自主研發并正式對外發布的AI視覺成像芯片。
數據顯示,eyemore X42成像引擎芯片,擁有比傳統ISP高20倍的計算能力,采用了20多種新的成像算法,集成了超過500種不同場景下的復雜光線數據。
eyemore X42芯片有三個特點:首先它是一顆獨立成像芯片。目前各種相機、智能手機、攝像頭里都有成像功能,但都是被集成在主芯片里面的,只能叫集成成像。而eyemore X42整顆芯片只專注于一件事情,那就是成像。這有點像Intel的CPU帶了集成顯卡功能,但我們知道,只有像NVIdia的專用GPU才一定是未來的主流。
第二個特點,eyemore X42拋棄了傳統的ISP成像架構,采用了全新的成像引擎架構,來解決復雜光線下的成像難題。而傳統的ISP,從架構上來講,無論如何也無法完美解決復雜光線的問題。
第三個特點是,eyemore X42提供了豐富的API接口,讓做后端圖像識別的算法工程師,可以很方便的控制成像的過程。
eyemore X42的性能有多強大?也許其發布會當天現場演示的“微光/暗光環境下實現精準識別”的實驗,就能很好的說明問題。
“如果你問所謂的微光會微到什么程度?這個很簡單,我們有一個基本的標準,就是和人眼比,我們就是要超越人眼”,朱繼志說到。
人眼的視網膜里有大約1.25億個視桿細胞和視錐細胞,它們扮演感光器的角色。其中,視桿細胞感知光線的明暗,而視錐細胞負責感知顏色。到光線的明暗達到一定程度(過亮或過暗)的時候,視錐細胞就停止工作,轉而切換到視桿細胞,因此這時人眼就只能感受到黑白的灰度,暫時失去了感知顏色的能力。
“我們現在做的事情是比人眼18個DB的八倍,在那種情況下。所以,在人眼看不清顏色、只能看清輪廓的情況下,我們能夠精準的還原顏色。”
人對世界顏色的感知能力是有限的,雖然理論上說人的眼睛可以分辨出出高達1200萬種顏色,但實際上遠遠低于這個數字。但機器能不能分辨出一百萬種、一千萬種甚至更多種顏色呢?這完全有可能。
我們很難想象的到,一個機器超越人眼之后可以做些什么。高維視覺和低維視覺相比,具有無可比擬的優越性。
比如看到一朵花,我們看到的只是白色的,但機器看到的是五顏六色的,因為可能有100種白。這就是機器進步的核心能力,能夠看到更多的信息,所以能夠給出更精準的反饋。
AI實體化之下,5年內視覺芯片將有100億數量級需求
隨著AI技術的進一步發展和應用的持續擴大,各種由AI芯片驅動的機器/設備持續出現,使得AI已經越來越呈現出實體化的趨勢。
“得益于人工智能的廣泛應用,目前已經形成了一個很大的技術生態。在這個龐大的生態海洋里,AI機器這個新的物種已經開始進化出來,這些AI機器將會迅速進入我們的現實世界。”朱繼志說。
AI機器區別于一般機器的最大特點是,它不是一個普通的工具,它自己有大腦。我們可以把自動駕駛、機器人、包括工藝檢測設備、智能的安防攝像頭/門禁/鎖具等等,都看做一個AI的機器。
另一方面,從信息時代發展到如今的AI時代,競爭核心已經從加工制造工藝/硬件設備性能的競爭,升級為算力和算法的比拼。由此,作為算法和算力承載的芯片,就成了當今時代最大的競爭焦點。
而AI機器需要數量更多的、性能更強大的芯片,即各種AI芯片。
“AI機器這個新物種,就是被各種芯片所驅動的。在比拼算法和算力的時代,一個AI機器所需要的芯片的數量,也就是芯片的密度,會呈現數量級的增長。”
以目前突然躥紅的比特幣為例,其挖礦的設備——礦機,就是芯片的需求大戶。在一個普通的礦機里,就會有幾十到數百顆處理器芯片,而這個在以前是不可能想象的。
-
計算機視覺
+關注
關注
8文章
1700瀏覽量
46079
發布評論請先 登錄
相關推薦
評論