色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

特斯拉前AI總監Andrej Karpathy:大模型有內存限制,這個妙招挺好用!

CVer ? 來源:機器之心 ? 2023-09-04 15:43 ? 次閱讀

Andrej Karpathy 用通俗易懂的語言介紹了 speculative execution。

「如今,LLM(大語言模型)并不是單點突破的 —— 而是需要多個重要組件有效協同工作的系統。Speculative decoding 是幫助我們從系統角度思考的一個很好的例子。」愛丁堡大學博士生符堯表示道。

58f1639a-4a73-11ee-97a6-92fbcf53809c.png

符堯上述觀點評論的是特斯拉AI 總監、年初重回 OpenAI 的 Andrej Karpathy 剛剛發布的一條推特。

人形機器人公司 1X Technologies 的 AI 副總裁 Eric Jang 評價道:「Karpathy 很好的解釋了 LLM 的 speculative execution。其他自回歸模型可能會以類似的方式加速。連續(擴散)模型可能從 K 步中獲益較少(可能在第 1 步后偏離猜測),但可以將其應用于 VQ-latents 的離散代碼。」

590ef96e-4a73-11ee-97a6-92fbcf53809c.png

看完上述評價,我們大概也了解了,Karpathy 說的「Speculative execution」,這是優化技術的一類,采用這個技術的計算機系統會根據現有信息,利用空轉時間提前執行一些將來可能用得上,也可能用不上的指令。如果指令執行完成后發現用不上,系統會拋棄計算結果,并回退執行期間造成的副作用(如緩存)。

為了讓大家更好的理解 Karpathy 的內容。我們先介紹一下「Speculative decoding」方法,對后續理解更加有益,其主要用于加速大模型的推理。據了解,GPT-4 泄密報告也提到了 OpenAI 線上模型推理使用了它(不確定是否 100%)。

關于「Speculative decoding」,已有幾篇重要文獻可供參考,這也是 Karpathy 為了寫這則推特所參考的論文,包括谷歌今年 1 月發表的論文《Fast Inference from Transformers via Speculative Decoding》、DeepMind 今年 2 月發表的論文《Accelerating Large Language Model Decoding with Speculative Sampling》,以及谷歌等機構 2018 年的論文《Blockwise Parallel Decoding for Deep Autoregressive Models 》 。

簡單來說,「Speculative decoding」使用兩個模型:一個是原始目標模型稱為大模型,另一個是比原始模型小得多的近似模型稱為小模型。主要思想是先讓小模型提前解碼多個 token 進行猜測,并將它們作為單個 batch 輸入到一個大模型中進行審核修正,其效果和直接用大模型解碼等價。如果小模型猜測的不準確,那么大型模型會放棄小模型預測的 token,繼續使用大型模型進行解碼。

由于小模型計算量小,從而大大減少了內存訪問需求。

介紹完「Speculative decoding」,我們再回到 Karpathy 的推特。Karpathy 是針對下面內容回復的。

59286e94-4a73-11ee-97a6-92fbcf53809c.gif

Karpathy 表示:對于 LLM 來說,「Speculative execution」 是一種極好的推理 — 時間優化方法。

它取決于以下方面:在單個輸入 token 上分發 LLM 所花費的時間與在批處理中分發 K 個輸入 token 所花費的時間一樣多。產生這樣的原因是因為采樣嚴重受內存限制:模型運行時的大部分工作不是在做計算,而是從 VRAM 讀取 transformer 的權重到片上緩存進行處理。如果你要做的工作是來讀取這些權值,你可以把它們應用到一整批輸入向量上。

但是我們不能一次性采樣一批 K 個 token,因為每 N 個 token 都取決于我們在第 N-1 步采樣的 token。由于存在串行依賴性,因此基線實現只是從左到右逐一進行。

現在最聰明的想法是使用一個小而便宜的草稿模型(draft model),先生成 K 個 token 候選序列,即一個「草稿」。然后用大模型批量的將輸入組合在一起。速度幾乎與僅輸入一個 token 一樣快。接著從左到右遍歷模型和樣本 token 預測的 logits。任何與「草稿」一致的樣本都允許立即跳到下一個 token。如果存在分歧,那么就丟棄「草稿」并承擔一些一次性工作的成本(對「草稿」進行采樣并為所有后續 token 進行前向傳遞)。

這種方法起作用的原因在于,很多「草稿」token 都會被接受,因為它們很容易,所以即使是更小的草稿模型也能得到它們。當這些簡單的 token 被接受時,我們會跳過這些部分。大模型不同意的 hard token 會回落到原始速度,但由于一些額外的工作,實際上速度會慢一些。

Karpathy 表示,這個奇怪的技巧之所以有效,是因為 LLM 在推理時受到內存限制,在對單個序列進行采樣的 batch size=1 設置中,很大一部分本地 LLM 用例都屬于這種情況。因為大多數 token 都很「簡單」。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    31133

    瀏覽量

    269455
  • OpenAI
    +關注

    關注

    9

    文章

    1100

    瀏覽量

    6576
  • 大模型
    +關注

    關注

    2

    文章

    2489

    瀏覽量

    2859
  • LLM
    LLM
    +關注

    關注

    0

    文章

    294

    瀏覽量

    353

原文標題:特斯拉前AI總監Andrej Karpathy:大模型有內存限制,這個妙招挺好用!

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    拋棄8GB內存,端側AI模型加速內存升級

    電子發燒友網報道(文/黃晶晶)端側AI模型的到來在存儲市場產生了最直接的反應。年初在我們對旗艦智能手機的存儲容量統計中,16GB內存+512GB存儲成為幾乎所有旗艦機型都提供的選擇。畢竟AI
    的頭像 發表于 11-03 00:02 ?4462次閱讀
    拋棄8GB<b class='flag-5'>內存</b>,端側<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>加速<b class='flag-5'>內存</b>升級

    【「大模型啟示錄」閱讀體驗】對大模型更深入的認知

    的平衡,解釋得清清楚楚,讓我這個非專業人士也能明白大模型在實際應用中面臨的挑戰和限制,也對這些模型的復雜性和挑戰了更深的理解。 而且,書
    發表于 12-20 15:46

    為什么ai模型訓練要用gpu

    GPU憑借其強大的并行處理能力和高效的內存系統,已成為AI模型訓練不可或缺的重要工具。
    的頭像 發表于 10-24 09:39 ?342次閱讀

    AI for Science:人工智能驅動科學創新》第二章AI for Science的技術支撐學習心得

    。 4. 物理與AI的融合 在閱讀過程中,我對于物理與AI的融合了更加深入的認識。AI for Science不僅依賴于數據,還需要結合物理定律和原理來確保
    發表于 10-14 09:16

    特斯拉將獲xAI模型授權

    近日,埃隆·馬斯克旗下的創新企業x.AI特斯拉就一項重大合作展開討論,雙方擬就特斯拉獲得xAI模型授權達成正式協議。據悉,特斯拉將利用這一
    的頭像 發表于 09-09 17:24 ?439次閱讀

    可以用os_malloc() 分配多少內存哪些限制

    我可以用 os_malloc() 分配多少內存哪些限制
    發表于 07-15 06:32

    無任何數學公式理解大模型基本原理

    為什么是一個一個蹦出來的 ? ? 大模型的本質 特斯拉AI總監Andrej
    的頭像 發表于 06-25 14:53 ?1410次閱讀
    無任何數學公式理解大<b class='flag-5'>模型</b>基本原理

    STM CUBE AI錯誤導入onnx模型報錯的原因?

    使用cube-AI分析模型時報錯,該模型是pytorch的cnn轉化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    發表于 05-27 07:15

    為什么Cubeai導入模型的時候報錯[AI:persondetection] ModuleNotFoundError: No module named \'_socket\'?

    在使用CubeIde導入ai模型進行模型分析的時候報錯[AI:persondetection] ModuleNotFoundError: No module named \'_sock
    發表于 05-21 06:44

    用DMA模式多路AD采集時,后臺AD是多久采集一次數據,AD不停采集不停刷新DMA地址里的數據?

    用著DMA挺好用,就是有點小疑問 用DMA模式多路AD采集時,后臺AD是多久采集一次數據,AD不停采集不停刷新DMA地址里的數據?還是從DMA指定地址里把數據讀取出后就會重新填充新數據進去。 這個采集頻率最高大家用過多少的!
    發表于 05-10 07:17

    防止AI模型被黑客病毒入侵控制(原創)聆思大模型AI開發套件評測4

    神經網絡的電路實現 // 比如說我們已經一臺神奇的AI算力黑科技在默默工作... endmodule // 我們召喚出這個神秘的AI模型
    發表于 03-19 11:18

    使用CUBEAI部署tflite模型到STM32F0中,模型創建失敗怎么解決?

    看到CUBE_AI已經支持到STM32F0系列芯片,就想拿來入門嵌入式AI。 生成的模型很小,是可以部署到F0上的,但是一直無法創建成功。 查閱CUBE AI文檔說在調用create
    發表于 03-15 08:10

    使用cube-AI分析模型時報錯的原因哪些?

    使用cube-AI分析模型時報錯,該模型是pytorch的cnn轉化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    發表于 03-14 07:09

    谷歌模型軟件哪些好用

    谷歌模型軟件的好用程度可能因個人需求和技能水平而異,但以下是一些廣受歡迎的谷歌模型軟件,它們在各自的領域內有著出色的表現。
    的頭像 發表于 02-29 18:17 ?1082次閱讀

    物理內存模型的演變

    內存管理概述中,主要是以Linux v2.6.11為例進行分析的,但是計算技術在不斷發展,新的存儲架構、新的指令集架構、新的SoC架構等都對物理內存模型的抽象提出了更高要求。為此,必須抽象一種完全獨立于硬件架構的物理
    的頭像 發表于 02-25 10:35 ?487次閱讀
    主站蜘蛛池模板: 99久久国产免费福利| 色琪琪久久热在线| 99久久国产极品蜜臀AV酒店| 世界上第一个得抑郁症的人是谁| 久久99热狠狠色AV蜜臀| 丰满少妇69激情啪啪无码| 在线观看国产高清免费不卡| 天天操天天干天天透| 内射老妇BBX| 久久精品男人影院| 国产学生无码中文视频一区| 草莓视频在线免费观看| 18国产精品白浆在线观看免费| 性色AV乱码一区二区三区视频| 日本二区三区欧美亚洲国| 麻豆出品国产AV在线观看| 黄页免费观看| 国产无遮挡又黄又爽在线视频| 成人18视频在线| 87影院午夜福利| 又黄又湿免费高清视频| 亚洲高清国产拍精品动图| 手机看片成人| 日韩欧美三区| 人妻少妇69式99偷拍| 嫩草国产精品99国产精品| 久久亚洲精品中文字幕| 极品少妇高潮XXXXX| 好看的电影网站亚洲一区| 国产精品人成视频免费999| 古月娜下面好紧好爽| 粗大分开挺进内射| 拔萝卜视频免费看高清| 99热久久这里只精品国产WWW | 午夜精品国产自在现线拍| 青青青青久久久久国产的| 美女内射少妇三区五区| 毛片免费观看的视频| 麻豆一二三四区乱码| 久在线观看福利视频| 快播电影网址|