色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Neuchips展示大模型推理ASIC芯片

SSDFans ? 來源:SSDFans ? 2025-01-06 17:30 ? 次閱讀

領先的AI專用集成電路ASIC)解決方案提供商Neuchips在CES 2024上展示了其革命性的Raptor Gen AI加速芯片(以前稱為N3000)和Evo PCIe加速卡LLM解決方案。新的芯片解決方案Raptor使企業能夠以現有解決方案的一小部分成本部署大型語言模型(LLM)推理。

NeuchipsCEO Ken Lau表示:“我們很高興在CES 2024上向業界展示我們的Raptor芯片和Evo卡。Neuchips的解決方案代表了自然語言處理在性價比上的巨大飛躍。有了Neuchips,任何組織都可以在廣泛的AI應用中從LLM中獲得力量。”

LLM民主化

Raptor和Evo共同提供了一個優化的堆棧,使企業可以輕松訪問市場領先的LLM。與現有解決方案相比,Neuchips的AI解決方案顯著降低了硬件成本。高能效也最大限度地減少了用電量,進一步降低了總擁有成本。

在CES 2024上,Neuchips展示了Raptor和Evo,在個人AI助理應用程序上加速Whisper和LlamaAI聊天機器人。該解決方案突出了LLM推理對實際業務需求的強大功能。

其他技術會議將展示Raptor和Evo如何削減語音到文本應用程序的部署成本。

Raptor GenAI加速器為突破LLM性能提供動力

Raptor每個芯片的運算速度高達每秒200TOPS。它在AI推理操作(如矩陣乘法、向量和嵌入表查找)方面的出色性能適用于Gen-AI和基于變壓器的AI模型。這一突破性的吞吐量是通過Neuchips為神經網絡量身定制的專利壓縮和效率優化來實現的。

Evo第5代PCIe卡為加速和低功耗設定新標準

與Raptor互補的是Neuchips的超低功耗Evo加速卡。Evo結合了8通道PCIe Gen 5和32GB LPDDR5,實現64 GB/s主機I/O帶寬和1.6 Tbps每秒的內存帶寬,每卡僅55瓦。

正如DLRM所展示的那樣,Evo還具有100%的可擴展性,允許客戶通過添加更多芯片來線性提高性能。這種模塊化設計確保了對未來AI工作負載的投資保護。

該公司2024年下半年推出了HHHL(half-height half-length)外形產品Viper,提供更大的部署靈活性。新系列在緊湊的設計中帶來了數據中心級的AI加速。

原文鏈接:

https://www.techpowerup.com/317298/neuchips-to-showcase-industry-leading-gen-ai-inferencing-accelerators-at-ces-2024


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • ASIC芯片
    +關注

    關注

    2

    文章

    92

    瀏覽量

    24091
  • LLM
    LLM
    +關注

    關注

    1

    文章

    316

    瀏覽量

    633

原文標題:Neuchips展示大模型推理ASIC芯片!

文章出處:【微信號:SSDFans,微信公眾號:SSDFans】歡迎添加關注!文章轉載請注明出處。

收藏 0人收藏

    評論

    相關推薦

    谷歌新一代 TPU 芯片 Ironwood:助力大規模思考與推理的 AI 模型新引擎?

    Cloud 客戶開放,將提供 256 芯片集群以及 9,216 芯片集群兩種配置選項。 ? 在核心亮點層面,Ironwood 堪稱谷歌首款專門為 AI 推理精心設計的 TPU 芯片
    的頭像 發表于 04-12 00:57 ?1671次閱讀

    詳解 LLM 推理模型的現狀

    2025年,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量優化推理能力的新策略開始出現,包括擴展推理時間計算、運用強化學習、開展監督微調和進行提煉等。本文將深入探討
    的頭像 發表于 04-03 12:09 ?174次閱讀
    詳解 LLM <b class='flag-5'>推理模型</b>的現狀

    為什么無法在運行時C++推理中讀取OpenVINO?模型

    使用模型優化器 2021.1 版OpenVINO?轉換模型 使用 Runtime 2022.3 版本在 C++ 推理實現 ( core.read_model()) 中讀取模型Open
    發表于 03-05 06:17

    AI推理帶火的ASIC,開發成敗在此一舉!

    電子發燒友網報道(文/梁浩斌)去年年底,多家大廠爆出開發數據中心ASIC芯片的消息,包括傳聞蘋果與博通合作開發面向AI推理ASIC,亞馬遜也在年底公布了其AI?
    的頭像 發表于 03-03 00:13 ?2614次閱讀
    AI<b class='flag-5'>推理</b>帶火的<b class='flag-5'>ASIC</b>,開發成敗在此一舉!

    AI大模型在汽車應用中的推理、降本與可解釋性研究

    佐思汽研發布《2024-2025年AI大模型及其在汽車領域的應用研究報告》。 推理能力成為大模型性能提升的驅動引擎 2024下半年以來,國內外大模型公司紛紛推出
    的頭像 發表于 02-18 15:02 ?953次閱讀
    AI大<b class='flag-5'>模型</b>在汽車應用中的<b class='flag-5'>推理</b>、降本與可解釋性研究

    黑芝麻智能芯片加速DeepSeek模型推理

    近日,黑芝麻智能宣布,其武當C1200家族芯片已成功完成DeepSeek模型推理的部署,而A2000芯片也將全面支持基于DeepSeek的多模態大
    的頭像 發表于 02-14 15:04 ?430次閱讀

    如何開啟Stable Diffusion WebUI模型推理部署

    如何開啟Stable Diffusion WebUI模型推理部署
    的頭像 發表于 12-11 20:13 ?393次閱讀
    如何開啟Stable Diffusion WebUI<b class='flag-5'>模型</b><b class='flag-5'>推理</b>部署

    阿里云開源推理模型QwQ

    推理能力,尤其在數學和編程方面表現突出。其整體推理水平已經可以與OpenAI的o1模型相媲美,這充分展示了QwQ的強大實力和潛力。 QwQ(Qwen with Questions)是通
    的頭像 發表于 11-29 11:30 ?927次閱讀

    使用vLLM+OpenVINO加速大語言模型推理

    隨著大語言模型的廣泛應用,模型的計算需求大幅提升,帶來推理時延高、資源消耗大等挑戰。
    的頭像 發表于 11-15 14:20 ?1067次閱讀
    使用vLLM+OpenVINO加速大語言<b class='flag-5'>模型</b><b class='flag-5'>推理</b>

    高效大模型推理綜述

    模型由于其在各種任務中的出色表現而引起了廣泛的關注。然而,大模型推理的大量計算和內存需求對其在資源受限場景的部署提出了挑戰。業內一直在努力開發旨在提高大模型
    的頭像 發表于 11-15 11:45 ?1179次閱讀
    高效大<b class='flag-5'>模型</b>的<b class='flag-5'>推理</b>綜述

    FPGA和ASIC在大模型推理加速中的應用

    隨著現在AI的快速發展,使用FPGA和ASIC進行推理加速的研究也越來越多,從目前的市場來說,有些公司已經有了專門做推理ASIC,像Groq的LPU,專門針對大語言
    的頭像 發表于 10-29 14:12 ?1581次閱讀
    FPGA和<b class='flag-5'>ASIC</b>在大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>加速中的應用

    澎峰科技高性能大模型推理引擎PerfXLM解析

    自ChatGPT問世以來,大模型遍地開花,承載大模型應用的高性能推理框架也不斷推出,大有百家爭鳴之勢。在這種情況下,澎峰科技作為全球領先的智能計算服務提供商,在2023年11月25日發布了針對大語言
    的頭像 發表于 09-29 10:14 ?1051次閱讀
    澎峰科技高性能大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>引擎PerfXLM解析

    LLM大模型推理加速的關鍵技術

    LLM(大型語言模型)大模型推理加速是當前人工智能領域的一個研究熱點,旨在提高模型在處理復雜任務時的效率和響應速度。以下是對LLM大模型
    的頭像 發表于 07-24 11:38 ?1496次閱讀

    如何加速大語言模型推理

    的主要挑戰。本文將從多個維度深入探討如何加速大語言模型推理過程,以期為相關領域的研究者和開發者提供參考。
    的頭像 發表于 07-04 17:32 ?862次閱讀

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    用于文本生成,根據提示或上下文生成連貫、富有創造性的文本,為故事創作等提供無限可能。大語言模型也面臨挑戰。一方面,其計算資源需求巨大,訓練和推理耗時;另一方面,模型高度依賴數據,需要大規模訓練數據才能
    發表于 05-04 23:55
    主站蜘蛛池模板: VIDEOSGGRATIS欧美另类 | 秘密教学26我们在做一次吧免费 | 又黄又爽又无遮挡在线观看免费 | 成人免费在线观看视频 | 久久国语精品 | 国产亚洲精品线观看不卡 | 狠狠色狠狠色综合日日2019 | BL低喘贯穿顶弄老师H | 狂操空姐电影 | 国产免费看片 | 99久久国语露脸精品国产 | 少妇的肉体AA片免费 | 亚洲色欲色欲WWW在线成人网 | 美女pk精子2小游戏 美女MM131爽爽爽 | 激情内射亚洲一区二区三区爱妻 | 一品道门在线视频高清完整版 | 国产探花在线精品一区二区 | 色呦呦导航 | 午夜日韩久久影院 | 把腿张开JI巴CAO死你H教室 | 国产精品一区二区在线观看 | 免费A级毛片无码鲁大师 | 国产精品无码久久久久不卡 | 插曲的痛30分钟视频最新章节 | 伊人久久大香线蕉影院95 | 全黄H全肉细节文NP 全黄h全肉细节全文 | 麻美ゆま夫の目の前で犯 | 精品淑女少妇AV久久免费 | 日本AAA片爽快视频 日本aaaa | 亚洲欧美日韩精品久久奇米色影视 | 翘臀后进美女白嫩屁股视频 | 国产青青草原 | 亚洲精品成人AV在线观看爽翻 | 亚洲精品久久久午夜麻豆 | 国产69精品久久久久乱码 | 黄图gif揉胸吸奶 | 日韩人妻无码专区一本二本 | 久久se精品一区二区国产 | gv肉片视频免费观看 | 欧美做真爱欧免费看 | 亚洲伊人成综合人影院 |

    電子發燒友

    中國電子工程師最喜歡的網站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術信息
    • 參加活動獲取豐厚的禮品