自研芯片在當下似乎已經成了一種潮流,無論是消費電子廠商、互聯網公司還是汽車廠商,都在拿自研芯片做文章。作為時刻都在與計算打交道的云端,自然也參與其中,甚至是先進工藝自研芯片的主力軍。
自研芯片能省下多少錢?
早在芯片產業有布局,或者以收購來掌握芯片設計實力的云服務廠商,幾乎都選擇了自研服務器芯片這條路線,比如亞馬遜、谷歌、阿里巴巴等等。自研芯片的范圍也從網絡芯片到通用計算的CPU,再到用于AI計算的ASIC芯片。
亞馬遜就靠著自研芯片省下了一大筆成本,這也是其他云服務廠商目前都沒能復制的成功。首先自研芯片通過架構上的創新,為其定制化實例提供了更高的性能,比如Nitro芯片靠卸載任務可以多省出兩個CPU內核;其次,對于某些特定的工作負載來說,自研芯片帶來了更容易把握的戰略控制以及硬件鎖定;最后,自然也省去了找第三方fabless設計公司的成本。
考慮到云服務廠商在硬件投入上的規模,以及亞馬遜作為全球第一大云服務廠商的體量,其中省下的成本還是相當龐大的。這也是亞馬遜走自研芯片可行的原因,其他云服務廠商或許能通過自研把設計成本壓下去,但制造成本絕對沒法像亞馬遜一樣壓這么低,這也是為何AWS過去能做到頻繁降價。
AI時代下自研芯片優勢有,但不多
亞馬遜在收購后,接連推出了Trainium和Inferentia這兩大訓練和推理加速器,并將其集成到自己的云端實例中去,以優異的性能為客戶提供高性價比的AI硬件方案。但這似乎并沒有為其在最近的AI熱潮中帶來優勢,反倒是微軟憑借英偉達的GPU率先以ChatGPT開啟了這場惡戰,谷歌的Bard也緊隨其后。
亞馬遜則選擇了與Hugging Face合作,作為其首選云供應商,用戶可以借助AWS上的先進工具,比如SageMaker托管服務,以及Trainium和Inferentia硬件,去訓練、微調和部署模型,從而為社區創造更加開放易用的AI。
但事實上是,這一合作激起的水花很快就被淹沒在了如傾盆大雨般落地的AI應用中。而且對于Hugging Face來說,他們想要打造的是開放式的生成式AI模型,也就是說其他廠商也都能從中獲益,也就是兩家共同提到的機器學習民主化。
況且在部署上,早在與亞馬遜合作之前,Hugging Face就已經在2022年與微軟Azure達成合作,在Azure的ML終結點上部署Hugging Face的機器學習推理服務。所以這次合作即便充分利用了亞馬遜的自研AI芯片,但給其帶來的優勢并不算大。無論是在性能還是在軟件生態上,現有的自研芯片都存在如鯁在喉的地方,而這不僅局限于亞馬遜這樣的大廠,不少初創AI芯片公司也都或多或少面臨這樣的困境。
結語
其實自研芯片也并非真的毫無靈活性可言,比如亞馬遜的Graviton和阿里的倚天710,雖說是自研芯片,但用到的畢竟還是Arm的Neoverse公版方案,還有不少第三方方案也是如此,比如英偉達的Grace、Ampere Computing的Altra等等。
這樣一來其實開發靈活性依然很高,比如英偉達為了給Grace做鋪墊,也對同類產品的軟件棧提供了支持。比如英偉達的HPC SDK全面支持AWS的Graviton 3,也支持對SVE和NEON的自動矢量化。而英偉達推出的Arm HPC開發套件,也是由Ampere的Altra Q80-30 CPU與A100 GPU組合打造的,與Grace芯片共用同一套軟件環境。
只不過在AI領域,這樣的自研路線優勢會更小一點,畢竟現在AI模型與算法發展迅速,自研GPU有著各種難以突破的專利壁壘,自研ASIC又存在迭代適應和軟件生態移植的問題。而這對于云服務廠商這種為客戶賦能更快產品上市速度的企業來說,或許在AI仍在快速演進的當下,GPU會是更優解,這也是云服務廠商即便選擇了自研AI芯片,主打的卻依然是GPU實例的原因。
審核編輯 :李倩
-
芯片
+關注
關注
456文章
51154瀏覽量
426259 -
加速器
+關注
關注
2文章
806瀏覽量
38016 -
服務器
+關注
關注
12文章
9295瀏覽量
85871
原文標題:自研服務器芯片或許沒有那么大優勢
文章出處:【微信號:elecfans,微信公眾號:電子發燒友網】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論