最近,隨著人工智能的大肆宣傳,我們注意到大多數人都默認所有人工智能工作負載將始終在 GPU 上運行。對于這一思路,我們認為,隨著更廣泛的芯片發揮作用,現實情況可能會有所不同。
需要明確的是,GPU 非常適合人工智能工作,并且不會對 Nvidia 的股價構成威脅。我們所說的人工智能實際上是應用統計學,更具體地說是非常先進的統計回歸模型。
這些問題的核心是矩陣代數,涉及相當簡單的數學問題,例如一個數字乘以另一個數字,但需要大規模完成。GPU 的設計采用較小的內核(更簡單的數學),且數量較多(大規模)。因此,使用這些處理器代替具有較少數量較大內核的 CPU 是有意義的。
現在,這種情況變得有點模糊了。其一,GPU 變得更加昂貴。他們更擅長人工智能數學,但在某些時候轉向 CPU 開始在經濟上變得有意義。
人工智能半導體市場實際上分為三個部分:訓練、云推理和邊緣推理。目前的訓練基本上與 Nvidia 相當,但這只是市場的一小部分。云推理將是一個更大的市場——隨著越來越多的人使用這些人工智能模型,對推理的需求將會增長,目前大部分工作將在云中完成。對于許多公司來說,擴大產能的成本似乎非常昂貴。半導體分析師迪倫·帕特爾(Dylan Patel)像往常一樣,對這個數學進行了最好的闡述,但足以說明推理費用可能會成為未來一年左右消費者采用人工智能的主要障礙。
“考慮到 GPU 的成本和相對稀缺性,我們認為許多公司將開始探索 GPU 的替代品來運行推理工作負載,特別是對于將這些 AI 結果與其他功能(如搜索或社交媒體)相結合的公司,這些工作負載在很大程度上仍然運行得最好無論如何,在CPU上?!盌ylan Patel說。
展望未來,我們懷疑人工智能的經濟學將需要更多的推理工作來進行邊緣計算,這意味著消費者需要付費購買設備。這意味著手機和 PC 將需要人工智能功能,這可能意味著它們在 CPU 和移動 SoC 上運行。
AMD 最近推出了內置于其客戶端 CPU 中的人工智能功能,而蘋果公司的 A 系列移動處理器和 M 系列 CPU 中都配備了神經引擎。我們預計這很快就會在邊緣設備中普及。
當然,許多公司正在尋求構建人工智能加速器——專門用于進行人工智能數學計算的專用芯片。但事實證明,這僅適用于像谷歌這樣控制其所有軟件的公司。這些專用芯片的一個重要問題是,它們往往針對一組特定的工作負載或人工智能模型進行過度設計,當這些模型發生變化時,這些芯片就會失去性能優勢。
所有這些都導致了半導體領域最不為人知的領域之一——FPGA。這些是“可編程”芯片(“P”代表可編程),這意味著它們在生產后可以重新用于不同的任務。這些與專門構建的 ASIC 處于相反的一端,專為 AI 加速器等特定任務而設計。
FPGA 已經存在多年了。半導體的經濟學通常意味著,超過一定的容量閾值,ASIC 更有意義,但對于工業和航空航天系統等小容量應用,它們的工作效果非常好。因此,FPGA 無處不在,涉及數十個終端市場,但我們對它們不太熟悉,因為它們通常不會出現在普通消費者每天使用的大批量電子產品中。
人工智能的出現稍微改變了這種計算方式。對于這些工作負載,FPGA 可能對底層模型頻繁變化的人工智能推理需求有意義。在這里,FPGA 的可編程性超過了 FPGA 使用的典型經濟性。需要明確的是,我們認為 FPGA 不會成為使用數千個 GPU 的大規模人工智能系統的有力競爭對手,但我們確實認為,隨著人工智能進一步滲透到電子領域,FPGA 的應用范圍將會擴大。
簡而言之,GPU 可能仍然是大部分人工智能領域的主導芯片,尤其是對于高調、大容量的模型。但除此之外,我們認為替代芯片的使用將成為生態系統的重要組成部分,這是一個比今天看起來更大的機會。
-
gpu
+關注
關注
28文章
4767瀏覽量
129210 -
人工智能
+關注
關注
1794文章
47622瀏覽量
239591 -
AI芯片
+關注
關注
17文章
1903瀏覽量
35157
原文標題:AI芯片,就是GPU嗎?
文章出處:【微信號:晶揚電子,微信公眾號:晶揚電子】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論