色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

優(yōu)于10倍參數(shù)模型!微軟發(fā)布Orca 2 LLM

jf_WZTOguxH ? 來源:AI前線 ? 2023-12-26 14:23 ? 次閱讀

微軟發(fā)布 Orca 2 LLM,這是 Llama 2 的一個調優(yōu)版本,性能與包含 10 倍參數(shù)的模型相當,甚至更好。Orca 2 使用了一個合成訓練數(shù)據(jù)集和一項稱為 Prompt Erasure(提示詞擦除) 的新技術來實現(xiàn)這一性能。

Orca 2 使用了師生模式的訓練方案,其中一個較大、較強的 LLM 作為另一個較小的 LLM(學生)的老師,老師的目標是提升學生的性能,使其與更大模型的性能相媲美。微軟的訓練技術教會較小的模型多種推理技巧,并教其如何為特定任務選擇最有效的技巧。

為此,老師被賦予了復雜的提示詞來觸發(fā)某種推理行為。不過,在一種被稱為 Prompt Erasure 的方案中,學生只得到任務要求和期望的響應,而不是老師的提示詞。在基準測試中,一個擁有 13B 參數(shù)的 Orca 2 模型的表現(xiàn)超過了一個 13B 參數(shù)的基準 Llama 2 模型,提升了 47.54%。而一個擁有 7B 參數(shù)的 Orca 2 模型在推理任務方面與一個擁有 70B 參數(shù)的 Llama 2 模型相當,甚至更好。

盡管像 ChatGPT 這樣的 LLM 在給定少量提示詞的情況下通常表現(xiàn)良好,但由于其內(nèi)存和計算需求較大,托管這些模型極具有挑戰(zhàn)性。經(jīng)過調優(yōu)的較小的模型也可以表現(xiàn)良好,許多研究人員已經(jīng)在研究使用較大 LLM 生成的合成數(shù)據(jù)集對它們進行訓練。

InfoQ 最近報道了谷歌的 Distilling Step-by-Step 方法,該方法會讓老師 LLM 自動生成一個小型的調優(yōu)數(shù)據(jù)集,其中包含輸入和輸出標簽,以及為何選擇輸出標簽的“基本原理”。InfoQ 還報道了 Stability AI 的 Stable Beluga 模型,它使用微軟原始的 Orca 1 方案進行訓練,該方案使用了 Explanation Tuning,其中老師 LLM 被提示“生成詳細答案”。

與 Orca 1 類似,Orca 2 訓練數(shù)據(jù)集是由老師 LLM 生成的,而老師 LLM 收到了詳細的提示詞。然而,微軟新的訓練方法 Cautious Reasoning 將訓練任務與提示詞相結合,引導老師 LLM 使用特定的問題解決策略,如“一步一步”或“解釋你的答案”。然后在學生的訓練過程中,老師的提示詞被刪除,這促使學生學會選擇正確的策略。

為了評估這種方法,微軟將 Orca 2 模型的性能與幾個基準模型進行了比較,包括 Llama 2、ChatGPT(GPT-3.5)和 GPT-4。基準任務包括推理、語言理解、文本完成和摘要。在推理基準測試中,13B 參數(shù) Orca 2 模型優(yōu)于除 ChatGPT 和 GPT-4 之外的所有基準。他們還發(fā)現(xiàn),給 Orca 2 一個“謹慎”的系統(tǒng)提示詞(“你是一個謹慎的助手,你會仔細遵循指示”)相比無系統(tǒng)提示會略微提升其性能。

有幾位用戶在 X 上發(fā)表了關于 Orca 2 的帖子。一位用戶指出:“你不需要用‘一步一步解釋’這樣的技巧來提示它。它自己知道。” AI 研究員 Rudi Ranck 寫道:

許多絕妙的想法都很簡單……就像 Orca 2 中的“提示詞擦除”一樣:完整的提示詞不會呈現(xiàn)給模型,而只呈現(xiàn)任務和答案(它過濾了生成這些答案所使用的完整提示詞)。這有助于模型在更高層次上制定策略。這是一篇非常好的論文。我強烈建議通讀全文。







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • ChatGPT
    +關注

    關注

    29

    文章

    1564

    瀏覽量

    7814
  • LLM
    LLM
    +關注

    關注

    0

    文章

    294

    瀏覽量

    354

原文標題:微軟發(fā)布 Orca 2 LLM,表現(xiàn)優(yōu)于 10 倍參數(shù)模型

文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    小白學大模型:構建LLM的關鍵步驟

    隨著大規(guī)模語言模型LLM)在性能、成本和應用前景上的快速發(fā)展,越來越多的團隊開始探索如何自主訓練LLM模型。然而,是否從零開始訓練一個LLM
    的頭像 發(fā)表于 01-09 12:12 ?107次閱讀
    小白學大<b class='flag-5'>模型</b>:構建<b class='flag-5'>LLM</b>的關鍵步驟

    如何訓練自己的LLM模型

    訓練自己的大型語言模型LLM)是一個復雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計算資源和專業(yè)知識。以下是訓練LLM模型的一般步驟,以及一些關鍵考慮因素: 定義目標和需求 : 確定你的
    的頭像 發(fā)表于 11-08 09:30 ?616次閱讀

    理解LLM中的模型量化

    在本文中,我們將探討一種廣泛采用的技術,用于減小大型語言模型LLM)的大小和計算需求,以便將這些模型部署到邊緣設備上。這項技術稱為模型量化。它使得人工智能
    的頭像 發(fā)表于 10-25 11:26 ?258次閱讀
    理解<b class='flag-5'>LLM</b>中的<b class='flag-5'>模型</b>量化

    請問InDTU IHDMP協(xié)議使用的CRC校驗使用的什么參數(shù)模型

    InDTU IHDMP協(xié)議使用的CRC校驗使用的什么參數(shù)模型
    發(fā)表于 07-25 06:39

    LLM模型推理加速的關鍵技術

    LLM(大型語言模型)大模型推理加速是當前人工智能領域的一個研究熱點,旨在提高模型在處理復雜任務時的效率和響應速度。以下是對LLM
    的頭像 發(fā)表于 07-24 11:38 ?920次閱讀

    模型LLM與ChatGPT的技術原理

    在人工智能領域,大模型(Large Language Model, LLM)和ChatGPT等自然語言處理技術(Natural Language Processing, NLP)正逐步改變著人類
    的頭像 發(fā)表于 07-10 10:38 ?907次閱讀

    llm模型本地部署有用嗎

    在當今的人工智能領域,LLM(Large Language Model,大型語言模型)已經(jīng)成為了一種非常受歡迎的技術。它們在自然語言處理(NLP)任務中表現(xiàn)出色,如文本生成、翻譯、摘要、問答等。然而
    的頭像 發(fā)表于 07-09 10:14 ?527次閱讀

    llm模型有哪些格式

    LLM(Large Language Model,大型語言模型)是一種深度學習模型,主要用于處理自然語言處理(NLP)任務。LLM模型的格式
    的頭像 發(fā)表于 07-09 09:59 ?660次閱讀

    LLM模型和LMM模型的區(qū)別

    LLM(線性混合模型)和LMM(線性混合效應模型)之間的區(qū)別如下: 定義: LLM(線性混合模型)是一種統(tǒng)計
    的頭像 發(fā)表于 07-09 09:57 ?1063次閱讀

    llm模型和chatGPT的區(qū)別

    LLM(Large Language Model)是指大型語言模型,它們是一類使用深度學習技術構建的自然語言處理(NLP)模型LLM模型
    的頭像 發(fā)表于 07-09 09:55 ?1142次閱讀

    LLM模型的應用領域

    在本文中,我們將深入探討LLM(Large Language Model,大型語言模型)的應用領域。LLM是一種基于深度學習的人工智能技術,它能夠理解和生成自然語言文本。近年來,隨著計算能力的提高
    的頭像 發(fā)表于 07-09 09:52 ?627次閱讀

    大語言模型(LLM)快速理解

    自2022年,ChatGPT發(fā)布之后,大語言模型(LargeLanguageModel),簡稱LLM掀起了一波狂潮。作為學習理解LLM的開始,先來整體理解一下大語言
    的頭像 發(fā)表于 06-04 08:27 ?1011次閱讀
    大語言<b class='flag-5'>模型</b>(<b class='flag-5'>LLM</b>)快速理解

    微軟自研5000億參數(shù)模型曝光

    微軟近日曝光了其內(nèi)部正在秘密研發(fā)的巨型AI模型——MAl-1,這款模型擁有驚人的5000億參數(shù)。據(jù)微軟首席技術官Kevin Scott確認,
    的頭像 發(fā)表于 05-08 09:56 ?468次閱讀

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個開源庫,用于優(yōu)化從 PC 到云端的
    的頭像 發(fā)表于 04-28 10:36 ?590次閱讀

    阿里云通義千問發(fā)布320億參數(shù)模型,優(yōu)化性能及效率

    與之前的模型相比,新版320億參數(shù)模型在性能、效率以及內(nèi)存占用方面取得了明顯改善。具體來說,32B在智能體場景下能力優(yōu)于14B模型,并且推理成本較小。
    的頭像 發(fā)表于 04-08 14:44 ?831次閱讀
    主站蜘蛛池模板: 久久国产精品二区99| 亚洲国产AV无码综合在线| 被六个男人躁到一夜同性| 性美国人xxxxx18| 男人插女人动态图| 国产欧美一区二区三区视频| 99视频在线观看免费视频| 亚洲精品高清在线观看| 秋霞伦理手机在线看片| 久久久久伊人| 国产在线精彩亚洲| 国产扒开美女双腿屁股流白浆| 97在线视频免费| 在线a亚洲视频| 亚洲精品久久无码AV片银杏| 秋葵app秋葵官网18在线观看| 啦啦啦视频在线观看WWW| 国产午夜精品一区二区理论影院| 北条麻妃夫の友人196| 中文字幕在线观看亚洲日韩| 亚洲精品色情婷婷在线播放| 肉动漫h黄动漫日本免费观看 | 在线va无卡无码高清| 亚洲AV 无码AV 中文字幕| 色偷偷888欧美精品久久久| 女人被弄到高潮叫床免| 快播电影网址| 久久91精品国产91| 韩国甜性涩爱| 国产日韩欧美有码在线视频| 国产电影无码午夜在线播放| 第四色播日韩AV第一页| 白丝女仆被啪到深夜漫画| 97视频视频人人碰视频| 最新高清无码专区在线视频| 伊人香蕉在线播放视频免费| 亚洲一区在线观看视频| 亚洲视频中文字幕在线| 亚洲免费无码中文在线| 亚洲国产成人综合| 亚洲精品视频在线观看视频|