近日,2023百度云智大會于北京圓滿落幕。眾多人工智能領域專家、行業精英、意見領袖等齊聚一堂,共同站在大模型重構未來的新起點,展望大模型創新發展之路。
作為百度四層架構的堅實算力底座,昆侖芯攜兩代芯片產品重磅亮相主會場及“智能計算&大模型技術論壇”展區。昆侖芯科技芯片研發總監漆維在專題論壇上進行精彩主題演講,獲得與會嘉賓及各級媒體的廣泛關注。
大會期間,昆侖芯以多媒體形式展示芯片產品的領先性能優勢,為嘉賓直觀呈現昆侖芯產品強大性能以及賦能千行百業的落地成果。
在百度的四層架構中,昆侖芯作為強大算力底座,通過對市場需求的深刻洞察,率先布局大模型領域。同時,昆侖芯與框架、模型、應用層高效協同,通過端到端軟硬逐層優化,攜手打造大模型端到端解決方案,實現了百家客戶、數萬片規模部署。
“智能計算&大模型技術論壇”上,昆侖芯科技芯片研發總監漆維帶來了“昆侖芯端到端大模型算力解決方案”主題分享。面對大模型時代計算的效率和成本問題,昆侖芯通過架構創新、產品定義創新以及軟件創新,打造出基于自研核心架構XPU-R的大模型產品矩陣。針對不同參數量級的大模型場景,昆侖芯兼具顯存和成本優勢:
昆侖芯AI加速卡R200-8F面向百億以內參數量級,相比同類型產品性能提升20%;
昆侖芯AI加速器組R480-X8面向百億至千億參數量級,性能達到同類型產品的1.5倍以上;
昆侖芯AI加速器組R480-X8集群針對千億以上參數量級,可實現多機多卡分布式推理。
“作為一款人工智能芯片,從芯片完成設計到真正走向行業落地,生態是其中非常重要的環節。”漆維在演講中分享了昆侖芯在軟件生態方面的成果。目前,昆侖芯提供了針對大模型場景的昆侖芯XFT(XPU Faster Transformer)推理加速庫、豐富的云原生插件。同時,昆侖芯已全面擁抱最大的大模型開源社區HuggingFace,打造了xHuggingface開源推理套件,并攜手飛槳等生態伙伴構建軟硬一體的AI芯片生態。
當前,大模型的技術生態正快速發展,驅動產業實踐、行業創新應用,而這離不開AI產業鏈各企業的加持。在圓桌論壇環節,漆維與同臺專家、優秀企業家代表圍繞“大模型創新發展之路”展開深入探討。
漆維表示:“大模型技術的發展為國內AI芯片企業帶來了良好的前景,但也帶來了算力需求及成本的挑戰。昆侖芯始終堅持開拓創新,降低AI算力成本與使用門檻,加強與AI產業鏈上下游企業的合作,為市場提供更優質的產品和服務。目前,已有兩代昆侖芯AI芯片實現量產和規模部署,而在研的下一代產品將為大模型和AIGC等應用提供更佳的性能體驗?!?/p>
AI算力正成為數字基建的新抓手,以及制約大模型技術發展的關鍵要素。作為AI芯片領域的領軍企業,昆侖芯將繼續秉承“讓計算更智能”的使命,打造更高性能的芯片產品,提供更普惠的AI算力,攜手生態伙伴領跑大模型產業落地。
審核編輯:彭菁
-
芯片
+關注
關注
456文章
51121瀏覽量
426083 -
人工智能
+關注
關注
1793文章
47604瀏覽量
239535 -
昆侖芯科技
+關注
關注
0文章
28瀏覽量
639 -
大模型
+關注
關注
2文章
2524瀏覽量
2998
原文標題:昆侖芯漆維:多維度創新應對大模型時代的算力挑戰
文章出處:【微信號:昆侖芯科技,微信公眾號:昆侖芯科技】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論