電子發燒友網報道(文/吳子鵬)2024年世界人工智能大會(以下簡稱:WAIC 2024)依然是一場“百模大戰”,不過有一些很明顯的變化是:新推出的AI大模型更加注重用戶體驗;邊側和端側承載AI大模型的方案越來越多。也就是說,AI大模型不僅完成了從“能用”到“好用”的蛻變,也從高高在上的云端,走到更靠近應用場景的邊側和端側,這給作為方案核心的推理芯片提出了非常高的要求。
在愛芯元智于WAIC 2024舉辦的“芯領未來丨智能芯片及多模態大模型論壇”上,愛芯元智創始人、董事長仇肖莘在主旨演講中表示,大模型真正大規模落地需要云邊端三級緊密結合,而邊側和端側結合的關鍵在于高能效的邊端AI芯片。
愛芯智眸AI-ISP和愛芯通元NPU
在AI芯片的研發上,愛芯元智打造了廣受業界認可的愛芯智眸AI-ISP和愛芯通元混合精度NPU兩大自研核心技術。其中,愛芯智眸AI-ISP是將深度學習算法與傳統的ISP處理單元相結合,利用像素級AI處理技術,在各種復雜應用場景中,全面提升成像效果,為后期智能處理提供高質量的圖像、視頻素材,作為萬物智能的“眼睛”感知更多信息,特別是暗光全彩的剛需。
愛芯通元混合精度NPU是以算子為原子指令集的AI計算處理器,采用多線程異構多核設計,實現算子、網絡微結構、數據流和內存訪問優化,高效支持混合精度算法設計,原生支持Transformer網絡結構,為大模型在邊緣側、端側的應用提供良好的基礎。
仇肖莘談到,愛芯元智現階段奉行以“AIoT+ADAS”為主的一體兩翼戰略路線,在AI大模型進入邊側和端側的過程中,智慧城市和智能汽車都是非常具有代表性的應用場景?!澳壳岸藗却竽P吐涞匾廊辉谇捌谔剿麟A段,我認為智能汽車、AI手機和AIPC將會是第一批落地的場景,智能駕駛之所以需要端側大模型原因在于汽車對實時性的要求更高?!?br />
愛芯智眸AI-ISP作為AI芯片的子系統,為解決很多端側場景圖像問題提供了強力支持。比如在智能駕駛場景中,愛芯智眸AI-ISP提供AI星光全彩、AI HDR成像、AI多光譜融合、AI防抖、AI場景增強、AI多傳感器融合六大技術亮點,能夠幫助智能汽車在大雨、大霧、夜間和隧道等惡劣的駕駛環境中獲取清晰的圖像。
當然,AI技術的發展也在推動AI-ISP的創新。以愛芯智眸AI-ISP來說,目前AI算法已經取代了降噪模塊、防抖模塊。仇肖莘認為,后續AI-ISP發展一個值得探索的方向是,AI-ISP是不是也能夠成為一個“黑盒式”的AI大模型,用AI算法取代更多ISP中的功能單元,使得AI-ISP能夠利用CMOS圖像傳感器的信號直接成像,讓用戶不必再去考慮ISP工作的中間環節。
在AI芯片的打造上,愛芯通元混合精度NPU的優點不只是原生支持Transformer網絡結構,還包括通過可編程數據流DSA架構,能夠覆蓋目前用戶需要的基本算子,成本、效能和運算效率都非常高。仇肖莘說,“AI算法發展至今已經非常成熟,進入一個較為穩定的狀態,因此用戶對于算子的需求不再有日新月異的變化,這是愛芯元智能夠打造通用AI處理器的關鍵?!?br />
根據愛芯元智聯合創始人、副總裁劉建偉的介紹,此次論壇上正式發布的愛芯通元AI處理器在高中低三檔算力中已完成布局,并在智慧城市和輔助駕駛兩個領域實現了規?;慨a,能效比較GPGPU芯片提升了一個數量級,而在以文搜圖、通用檢測、以圖生文、AI Agent等通用大模型應用中,愛芯通元AI處理器也可以讓AI開發者以更低的成本進行高效開發。
案例一是基于愛芯元智端側小芯片AX630C部署語言大模型——阿里云通義千問Qwen2.0。AX630C提供3.2T的算力,通過運載通義千問Qwen2.0,可以流暢地實現人機對話,查詢信息、日常交流等任務。AX630C運載通義千問Qwen2.0每秒能處理超過10個信息單元,但功耗只有1.5瓦。
案例二是愛芯元智端AX650N結合CLIP模型可以實現以文搜圖的功能,只需要一個詞、一句話或一段文字,系統就能迅速準確地從海量圖片中找到匹配項。
案例三是基于愛芯元智端AX650N運轉多模態多維感知大模型OWL-ViT大模型,精準完成對未知目標檢測,實現圖像自動標簽化。
正如上文提到的,愛芯通元AI處理器提供完備的算子集合,因此對于市面上的大模型能夠提供非常好的支持,并且適配的速度是非??斓?。比如,今年4月份,Meta發布了Meta Llama 3系列語言模型(LLM),具體包括一個8B模型和一個70B模型。隨后不久,愛芯元智就宣布,愛芯通元AI處理器完成Llama 3和Phi-3大模型適配。在Llama 3模型的適配上,愛芯元智AX650N芯片適配了Llama 3 8B Int8版本,若采用Int4量化,每秒token數還能再翻一倍,能滿足正常的人機交流。仇肖莘強調,愛芯元智的AI芯片對INT2、INT4、INT8、INT16混合精度算力都可以支持。
結語
AI大模型的發展已經進入一個新階段,行業大模型以及云邊端結合的大模型是下一步發展重點。在端側運轉大模型有不一樣的挑戰,能耗和參數規模都會受到限制,但用戶體驗不能打折。愛芯通元AI處理器以及愛芯元智AX650N等AI芯片展示出了非常好的端側大模型支持能力,在普惠AI的道路上邁出了堅實一步。
在愛芯元智于WAIC 2024舉辦的“芯領未來丨智能芯片及多模態大模型論壇”上,愛芯元智創始人、董事長仇肖莘在主旨演講中表示,大模型真正大規模落地需要云邊端三級緊密結合,而邊側和端側結合的關鍵在于高能效的邊端AI芯片。
愛芯元智創始人、董事長仇肖莘
仇肖莘指出,目前基于愛芯元智AI芯片已經完成非常多款AI大模型的適配,能夠支持的參數規模覆蓋0.3B-7B?!按钶dAI處理器的高效推理芯片將是大模型落地更合理的選擇,這也是推進普惠AI的關鍵所在?!?br />愛芯智眸AI-ISP和愛芯通元NPU
在AI芯片的研發上,愛芯元智打造了廣受業界認可的愛芯智眸AI-ISP和愛芯通元混合精度NPU兩大自研核心技術。其中,愛芯智眸AI-ISP是將深度學習算法與傳統的ISP處理單元相結合,利用像素級AI處理技術,在各種復雜應用場景中,全面提升成像效果,為后期智能處理提供高質量的圖像、視頻素材,作為萬物智能的“眼睛”感知更多信息,特別是暗光全彩的剛需。
仇肖莘談到,愛芯元智現階段奉行以“AIoT+ADAS”為主的一體兩翼戰略路線,在AI大模型進入邊側和端側的過程中,智慧城市和智能汽車都是非常具有代表性的應用場景?!澳壳岸藗却竽P吐涞匾廊辉谇捌谔剿麟A段,我認為智能汽車、AI手機和AIPC將會是第一批落地的場景,智能駕駛之所以需要端側大模型原因在于汽車對實時性的要求更高?!?br />
愛芯智眸AI-ISP作為AI芯片的子系統,為解決很多端側場景圖像問題提供了強力支持。比如在智能駕駛場景中,愛芯智眸AI-ISP提供AI星光全彩、AI HDR成像、AI多光譜融合、AI防抖、AI場景增強、AI多傳感器融合六大技術亮點,能夠幫助智能汽車在大雨、大霧、夜間和隧道等惡劣的駕駛環境中獲取清晰的圖像。
當然,AI技術的發展也在推動AI-ISP的創新。以愛芯智眸AI-ISP來說,目前AI算法已經取代了降噪模塊、防抖模塊。仇肖莘認為,后續AI-ISP發展一個值得探索的方向是,AI-ISP是不是也能夠成為一個“黑盒式”的AI大模型,用AI算法取代更多ISP中的功能單元,使得AI-ISP能夠利用CMOS圖像傳感器的信號直接成像,讓用戶不必再去考慮ISP工作的中間環節。
在AI芯片的打造上,愛芯通元混合精度NPU的優點不只是原生支持Transformer網絡結構,還包括通過可編程數據流DSA架構,能夠覆蓋目前用戶需要的基本算子,成本、效能和運算效率都非常高。仇肖莘說,“AI算法發展至今已經非常成熟,進入一個較為穩定的狀態,因此用戶對于算子的需求不再有日新月異的變化,這是愛芯元智能夠打造通用AI處理器的關鍵?!?br />
根據愛芯元智聯合創始人、副總裁劉建偉的介紹,此次論壇上正式發布的愛芯通元AI處理器在高中低三檔算力中已完成布局,并在智慧城市和輔助駕駛兩個領域實現了規?;慨a,能效比較GPGPU芯片提升了一個數量級,而在以文搜圖、通用檢測、以圖生文、AI Agent等通用大模型應用中,愛芯通元AI處理器也可以讓AI開發者以更低的成本進行高效開發。
愛芯元智聯合創始人、副總裁劉建偉
讓端側更好地承載AI大模型 根據《2024年中國AI大模型產業發展報告》,截至2024年3月,國內部署大模型的企業數量超243家,以通用大模型為主。不過,我們都知道AI大模型成功的關鍵在于行業大模型、端側、端云結合等多種模式并行。 端側大模型的部署所面臨的挑戰和云端是完全不同的,需要克服能耗的限制,還需要在足夠小的參數下,做到大部分日常工作。在WAIC 2024上,愛芯元智在自己的展臺上也展示了其AI芯片在部署端側大模型方面的能力。案例一是基于愛芯元智端側小芯片AX630C部署語言大模型——阿里云通義千問Qwen2.0。AX630C提供3.2T的算力,通過運載通義千問Qwen2.0,可以流暢地實現人機對話,查詢信息、日常交流等任務。AX630C運載通義千問Qwen2.0每秒能處理超過10個信息單元,但功耗只有1.5瓦。
案例二是愛芯元智端AX650N結合CLIP模型可以實現以文搜圖的功能,只需要一個詞、一句話或一段文字,系統就能迅速準確地從海量圖片中找到匹配項。
案例三是基于愛芯元智端AX650N運轉多模態多維感知大模型OWL-ViT大模型,精準完成對未知目標檢測,實現圖像自動標簽化。
正如上文提到的,愛芯通元AI處理器提供完備的算子集合,因此對于市面上的大模型能夠提供非常好的支持,并且適配的速度是非??斓?。比如,今年4月份,Meta發布了Meta Llama 3系列語言模型(LLM),具體包括一個8B模型和一個70B模型。隨后不久,愛芯元智就宣布,愛芯通元AI處理器完成Llama 3和Phi-3大模型適配。在Llama 3模型的適配上,愛芯元智AX650N芯片適配了Llama 3 8B Int8版本,若采用Int4量化,每秒token數還能再翻一倍,能滿足正常的人機交流。仇肖莘強調,愛芯元智的AI芯片對INT2、INT4、INT8、INT16混合精度算力都可以支持。
結語
AI大模型的發展已經進入一個新階段,行業大模型以及云邊端結合的大模型是下一步發展重點。在端側運轉大模型有不一樣的挑戰,能耗和參數規模都會受到限制,但用戶體驗不能打折。愛芯通元AI處理器以及愛芯元智AX650N等AI芯片展示出了非常好的端側大模型支持能力,在普惠AI的道路上邁出了堅實一步。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
AI芯片
+關注
關注
17文章
1901瀏覽量
35143 -
GPGPU
+關注
關注
0文章
29瀏覽量
4908 -
愛芯元智
+關注
關注
1文章
84瀏覽量
4852 -
AI大模型
+關注
關注
0文章
320瀏覽量
337
發布評論請先 登錄
相關推薦
廣和通Fibocom AI Stack:加速端側AI部署新紀元
、海量模型以及全方位的支持與服務于一體,為智能設備提供了端到端的AI解決方案。為適應多樣化的端
廣和通發布Fibocom AI Stack,助力客戶快速實現跨平臺跨系統的端側AI部署
、AI工具鏈、高性能推理引擎、海量模型、支持與服務一體化的端側AI解決方案,幫助智能設備快速實現
發表于 01-08 11:38
?84次閱讀
借助谷歌Gemini和Imagen模型生成高質量圖像
在快速發展的生成式 AI 領域,結合不同模型的優勢可以帶來顯著的成果。通過利用谷歌的 Gemini 模型來制作詳細且富有創意的提示,然后使用 Imagen 3 模型根據這些提示生成
中信建投建議關注端側AI模組機會
析,OpenAI在其“連續12天直播發布”的第5天宣布,支持Apple Intelligence的蘋果設備現已能夠開啟ChatGPT功能。這一消息不僅顯示了AI技術在消費級市場的廣泛應用潛力,也預示著端
炬芯科技發布ATS323X系列端側AI音頻芯片
面向低延遲私有無線音頻領域的創新之作:ATS323X系列芯片,這是全新一代基于MMSCIM的端側AI音頻
把握關鍵節點,美格智能持續推動端側AI規?;卣?/a>
將成為和系統同樣重要的存在,如果說電路是連接身體的“血管”,那么AI就將成為終端的智慧“大腦”。 ?加速演進,大模型加速走向端側 從手機移動端
端側AI,風起移動智能計算
新一代驍龍旗艦芯片,端側AI的繁榮肇始
后摩智能引領AI芯片革命,推出邊端大模型AI芯片M30
在人工智能(AI)技術飛速發展的今天,AI大模型的部署需求正迅速從云端向端側和邊緣側設備遷移。這
評論