據Digitimes報道,因NVIDIA H100 GPU廣泛應用于人工智能計算,造成其供需失衡。如今,根據臺灣地區總經理Terence Liao介紹,近期該產品交貨周期已大幅度縮短,由原先的3-4個月縮減為當前的2-3個月(即8-12周)。同時,服務器制造商也證實,相較于2023年幾乎無法購買到H100的狀況,目前供應緊張局面正逐漸得到緩解。
盡管交貨周期有所縮短,Liao強調,人工智能硬件市場需求依然強勁。盡管價格較高,但人工智能服務器的采購量正在超過普通服務器。他指出,過長的交付周期是導致需求看似持續增長的主因。
值得關注的是,目前2-3個月的交貨周期已是NVIDIA H100 GPU歷史最短紀錄。僅在半年前,等待期還長達11個月,大部分客戶需等待近一年才能獲得所需的人工智能GPU。
自2024年初起,H100 GPU交貨周期持續明顯縮短。今年初,等待期已由數月縮短至3-4個月;現今再度縮短一個月。按照此趨勢,預計今年底或更早,無需再等待。
部分原因可能源于部分公司持有過多的H100 GPU庫存,并選擇出售以降低庫存維護成本。此外,亞馬遜云科技(AWS)提供云端租賃服務,使得用戶能夠更加便捷地使用H100 GPU,從而緩解了部分需求壓力。
現階段,僅有少數大型企業如OpenAI等仍受供應限制影響,因其正在開發自身的大型語言模型(LLM)。由于此類模型訓練需大量GPU支持,故這些企業仍面臨供應難題。
-
gpu
+關注
關注
28文章
4754瀏覽量
129094 -
服務器
+關注
關注
12文章
9239瀏覽量
85694 -
人工智能
+關注
關注
1792文章
47446瀏覽量
239061
發布評論請先 登錄
相關推薦
評論