目前,人工智能領(lǐng)域正不斷取得突破性進展。作為實現(xiàn)人工智能技術(shù)的重要基石,AI芯片擁有巨大的產(chǎn)業(yè)價值和戰(zhàn)略地位。自2018年伊始,整個人工智能產(chǎn)業(yè)對于AI芯片的熱情仿佛一瞬間被徹底點燃,無論是巨頭公司還是初創(chuàng)企業(yè),無論是芯片廠商還是互聯(lián)網(wǎng)公司,紛紛積極布局這一領(lǐng)域。放眼整個人工智能行業(yè),一時之間可謂人聲鼎沸、熱鬧非凡。
然而,越是繁榮的表象,整個產(chǎn)業(yè)界越需要保持客觀與冷靜。眾所周知,作為人工智能產(chǎn)業(yè)鏈的關(guān)鍵環(huán)節(jié)和硬件基礎(chǔ),AI芯片有著極高的技術(shù)研發(fā)和創(chuàng)新的壁壘。從芯片發(fā)展的趨勢來看,我們現(xiàn)在仍處于AI芯片發(fā)展的初級階段。未來將是AI芯片發(fā)展的重要階段,無論是架構(gòu)還是設(shè)計理念都存在著巨大的創(chuàng)新空間。那么,當(dāng)前AI芯片的發(fā)展現(xiàn)狀究竟如何?下一輪的爆發(fā)點又將在哪里出現(xiàn)呢?
AI芯片的前生今世
經(jīng)過長期的發(fā)展和探索,人工智能在近幾年取得了突破性進展。人工智能系統(tǒng)在語音識別、圖像識別、圍棋、德州撲克等諸多領(lǐng)域取得了超越人的能力的成果。究其原因,業(yè)界普遍認為,深度學(xué)習(xí)算法、海量的數(shù)據(jù)和充足的計算力這三大要素合力促成了這次突破。
其中,得益于摩爾定律在最近二十年的發(fā)展,充足的算力使得在可以接受的價格、功耗和時間內(nèi)提供人工智能算法所需的計算性能。根據(jù)英特爾的處理器芯片能力和零售價格對比測算,單位價格可以購買到的計算力提升了1.5萬倍,從而使“通用中央處理器”(CPU)可以支持各種人工智能任務(wù)。可以說,通過芯片技術(shù)來大幅增強人工智能研發(fā)的時機已經(jīng)非常成熟。然而,由于CPU要面對成百上千種工作任務(wù)來進行設(shè)計和優(yōu)化,因此不可能犧牲靈活性來專門為某一類應(yīng)用做優(yōu)化,因此未必針對所有AI算法都是最優(yōu)的選擇。為此,出現(xiàn)了多種CPU加專用芯片的異構(gòu)計算方案,以解決計算資源和內(nèi)存訪問瓶頸的研究。此外,與“腦啟發(fā)式”(brain-inspired)的深度神經(jīng)網(wǎng)絡(luò)不同的“類腦”(brain-like)計算研究也推出了先進的神經(jīng)擬態(tài)芯片來支持超高能效比的自然學(xué)習(xí)方式。
綜合來看,如果以設(shè)計理念進行劃分的話,AI芯片大致可分為兩大類別。
第一類是“AI加速芯片”,它是確定性地加速某類特定的算法或任務(wù),從而達到目標(biāo)應(yīng)用領(lǐng)域?qū)λ俣取⒐摹?nèi)存占用和部署成本等方面的要求。目前,AI加速芯片的研發(fā)有兩種主要的方式:一種是利用已有的GPU、眾核處理器、DSP、FPGA芯片來做軟硬件優(yōu)化;另一種是設(shè)計專用的芯片,也就是ASIC。第二類是“智能芯片”,它讓芯片像人一樣能使用不同的AI算法進行學(xué)習(xí)和推導(dǎo),處理包含感知、理解、分析、決策和行動的一系列任務(wù),并且具有適應(yīng)場景變化的能力。目前,面向綜合、自適應(yīng)能力的智能芯片研究有兩類設(shè)計方法,一種是基于類腦計算的“神經(jīng)擬態(tài)芯片”;另一種是基于可重構(gòu)計算的“軟件定義芯片”。
圍繞這兩大方向,全球各大芯片公司都積極在人工智能領(lǐng)域進行布局,英特爾也是如此。而英特爾的獨特之處,在于能夠提供全面的、多元化的解決方案。我們既提供多種芯片類型的產(chǎn)品,又覆蓋了從終端到數(shù)據(jù)中心的使用場景。在終端領(lǐng)域,可以使用Movidius、Mobileye的ASIC芯片。在邊緣計算中,可以使用ASIC芯片和FPGA芯片;在數(shù)據(jù)中心領(lǐng)域,可以靈活選擇至強可擴展處理器、眾核處理器和NNP等芯片方案。此外,英特爾還通過神經(jīng)擬態(tài)芯片Loihi積極探索新的計算模式。
AI芯片的未來之路
目前,AI芯片雖然在某些具體任務(wù)上可以大幅超越人的能力,但在通用性、適應(yīng)性上相較于人類智能還有很大差距,大多數(shù)仍處于對特定算法的加速階段。從短期來看,以異構(gòu)計算(多種組合方式)為主來加速各類應(yīng)用算法的落地(看重能效比、性價比、可靠性);從中期來看,要發(fā)展自重構(gòu)、自學(xué)習(xí)、自適應(yīng)的芯片來支持算法的演進和類人的自然智能;從長期來看,則是朝著通用AI芯片的方面發(fā)展。
在我看來,“通用AI芯片”是AI芯片皇冠上的明珠。它最理想化的方式是淡化人工干預(yù)(如限定領(lǐng)域、設(shè)計模型、挑選訓(xùn)練樣本、人工標(biāo)注等)的通用智能芯片,必須具備可編程性、架構(gòu)的動態(tài)可變性、高效的架構(gòu)變換能力或自學(xué)習(xí)能力、高計算效率、高能量效率、應(yīng)用開發(fā)簡潔、低成本和體積小等特點。就目前而言,實現(xiàn)通用AI的主要直面兩大挑戰(zhàn):一是通用性(算法和架構(gòu)),二是實現(xiàn)的復(fù)雜度。通用AI芯片的復(fù)雜度來自于任務(wù)的多樣性和對自學(xué)習(xí)、自適應(yīng)能力的支持。因此,我們認為通用AI芯片的發(fā)展方向不會是一蹴而就地采用某一種芯片來解決問題,因為理論模型和算法尚未完善。最有效的方式是先用一個多種芯片設(shè)計思路組合的靈活的異構(gòu)系統(tǒng)來支持,各取所長,取長補短。一旦架構(gòu)成熟,就可以考慮設(shè)計SoC來在一個芯片上支持通用AI。
從短期來看,我們很難期待出現(xiàn)像CPU那樣的AI通用算法芯片,AI殺手級應(yīng)用還沒出現(xiàn),未來還有很長一段路要走。但必須承認的是,AI芯片是人工智能技術(shù)發(fā)展過程中不可逾越的關(guān)鍵階段。無論哪種AI算法,最終的應(yīng)用必然通過芯片來實現(xiàn)。目前,AI算法都有各自長處和短板,必須給它們設(shè)定一個合適的應(yīng)用邊界,才能最好地發(fā)揮它們的作用。因此,確定應(yīng)用領(lǐng)域就成為了發(fā)展AI芯片的重要前提。
在應(yīng)用方面,“無行業(yè)不AI”似乎正在成為主旋律,無論是人臉識別、語音識別、機器翻譯、視頻監(jiān)控,還是交通規(guī)劃、無人駕駛、智能陪伴、輿情監(jiān)控、智慧農(nóng)業(yè)等,人工智能似乎涵蓋了人類生產(chǎn)生活的方方面面。然而,是所有的應(yīng)用都需要人工智能嗎?我們希望人工智能解決哪些實際的問題?什么才是AI的“殺手級”應(yīng)用?這些問題目前依然等待答案。但對于芯片從業(yè)者而言,我們的當(dāng)務(wù)之急是研究芯片架構(gòu)問題。從感知、傳輸?shù)教幚恚俚絺鬏敗?zhí)行,這是AI芯片的一個基本邏輯。研究者需要利用軟件系統(tǒng)、處理器等去模仿。軟件是實現(xiàn)智能的核心,芯片是支撐智能的基礎(chǔ)。
從芯片發(fā)展的大趨勢來看,目前尚處于AI芯片發(fā)展的初級階段,無論是科研還是產(chǎn)業(yè)應(yīng)用都有巨大的創(chuàng)新空間。從確定算法、領(lǐng)域的AI加速芯片向具備更高靈活性、適應(yīng)性的智能芯片發(fā)展是科研發(fā)展的必然方向。神經(jīng)擬態(tài)芯片技術(shù)和可重構(gòu)計算芯片技術(shù)允許硬件架構(gòu)和功能隨軟件變化而變化,實現(xiàn)以高能效比支持多種智能任務(wù),在實現(xiàn)AI功能時具有獨到的優(yōu)勢,具備廣闊的前景。我們相信,未來十年將是AI芯片發(fā)展的重要時期,有望在架構(gòu)和設(shè)計理念取得巨大的突破。
-
人工智能
+關(guān)注
關(guān)注
1791文章
47314瀏覽量
238624 -
AI芯片
+關(guān)注
關(guān)注
17文章
1887瀏覽量
35044
原文標(biāo)題:AI芯片:從歷史看未來
文章出處:【微信號:AItists,微信公眾號:人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論