色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

新火種AI|算力不足,小模型成AI模型發(fā)展下個(gè)方向?

新火種 ? 來源:新火種 ? 作者:新火種 ? 2024-04-23 21:20 ? 次閱讀

作者:一號(hào)

編輯:美美

大模型不是AI的唯一出路,把模型做小也是本事。

這段時(shí)間,AI模型界是真的熱鬧,新的模型不斷涌現(xiàn),不管是開源還是閉源,都在刷新成績。就在前幾天,Meta就上演了一出“重奪開源鐵王座”的好戲。發(fā)布了Llama 3 8B和70B兩個(gè)版本,在多項(xiàng)指標(biāo)上都超越了此前開源的Grok-1和DBRX,成為了新的開源大模型王者。

wKgaomYntYWALO4kAAF9o0JhNoc638.jpg

并且Meta還透露,之后還將推出400B版本的Llama 3,它的測(cè)試成績可是在很多方面上都追上了OpenAI閉源的GPT-4,讓很多人都直呼,開源版的GPT-4就要來了。盡管在參數(shù)量上來看,相比Llama 2,Llama 3并沒有特別大的提升,但是在某些表現(xiàn)上,Llama 3最小的8B版本都比Llama 2 70B要好。可見,模型性能的提升,并非只有堆參數(shù)這一種做法。

Llama 3重回開源之王

當(dāng)?shù)貢r(shí)間4月18日,“真·OpenAI”——Meta跑出了目前最強(qiáng)的開源大模型Llama 3。本次Meta共發(fā)布了兩款開源的Llama 3 8B和Llama 3 70B模型。根據(jù)Meta的說法,這兩個(gè)版本的Llama 3是目前同體量下,性能最好的開源模型。并且在某些數(shù)據(jù)集上,Llama 3 8B的性能比Llama 2 70B還要強(qiáng),要知道,這兩者的參數(shù)可是相差了一個(gè)數(shù)量級(jí)。

wKgZomYntYWAVtnWAAB9WAUVD7g495.jpg

能夠做到這點(diǎn),可能是因?yàn)長lama 3的訓(xùn)練效率要高3倍,它基于超過15T token訓(xùn)練,這比Llama 2數(shù)據(jù)集的7倍還多。在MMLU、ARC、DROP等基準(zhǔn)測(cè)試中,Llama 3 8B在九項(xiàng)測(cè)試中領(lǐng)先于同行,Llama 3 70B也同樣擊敗了Gemini 1.5 Pro和Claude 3 Sonnet。

wKgaomYntYaAMuX1AABjhtgBFLk869.jpg

盡管在參數(shù)量上并沒有特別大的提升,但毫無疑問,Llama 3的性能已經(jīng)得到了很大的進(jìn)步,可以說是用相近的參數(shù)量獲得了更好的性能,這可能是在算力資源短期內(nèi)無法滿足更大規(guī)模運(yùn)算的情況下所作出的選擇,但這體現(xiàn)了AI模型的研發(fā)并非只有堆砌參數(shù)這一條“大力出奇跡”的道路。

把大模型做小正成業(yè)內(nèi)共識(shí)

實(shí)際上,在Llama 3之間的兩位開源王者,Grok-1和DBRX也致力于把模型做小。和以往的大模型,使用一個(gè)模型解決一切問題的方式不同,Grok-1和DBRX都采用了MoE架構(gòu)(專家模型架構(gòu)),在面對(duì)不同問題的時(shí)候,調(diào)用不同的小模型來解決,實(shí)現(xiàn)在節(jié)省算力的情況下,保證回答的質(zhì)量。

而微軟也在Llama 3發(fā)布后沒幾天,就出手截胡,展示了Phi-3系列小模型的技術(shù)報(bào)告。在這份報(bào)告中,僅3.8B參數(shù)的Phi-3-mini在多項(xiàng)基準(zhǔn)測(cè)試中都超過了Llama 3 8B,并且為了方便開源社區(qū)使用,還特意把它設(shè)計(jì)成了與Llama系列兼容的結(jié)構(gòu)。更夸張的是,微軟的這個(gè)模型,在手機(jī)上也能直接跑,經(jīng)4bit量化后的phi-3-mini在iPhone 14 pro和iPhone 15使用的蘋果A16芯片上能夠跑到每秒12 token,這也就意味著,現(xiàn)在手機(jī)上能本地運(yùn)行的最佳開源模型,已經(jīng)做到了ChatGPT水平。

wKgaomYntYeAedOdAAH625X7FZ0117.jpg

而除了mini杯外,微軟也一并發(fā)布了小杯和中杯,7B參數(shù)的Phi-3-small和14B參數(shù)的Phi-3-medium。在技術(shù)報(bào)告中,微軟也說了,去年研究團(tuán)隊(duì)就發(fā)現(xiàn),單純堆砌參數(shù)量并非提升模型性能的唯一路徑,反而是精心設(shè)計(jì)訓(xùn)練的數(shù)據(jù),尤其是利用大模型本身去生成合成數(shù)據(jù),并配合嚴(yán)格過濾的高質(zhì)量數(shù)據(jù),能夠讓中小模型的能力大幅躍升,所以他們也說,Textbooks are all you need,教科書級(jí)別的高質(zhì)量數(shù)據(jù)才是重要的。

wKgZomYntYeACrYjAAAqb2tDS8k509.jpg

AI模型發(fā)展正著力于擺脫限制

英偉達(dá)乘著AI的東風(fēng),成為行業(yè)內(nèi)說一不二,當(dāng)之無愧的“賣鏟子的人”,各家AI公司都將英偉達(dá)的GPU視為“硬通貨”,以致于誰囤有更多的英偉達(dá)的GPU,誰的AI實(shí)力就強(qiáng)。但英偉達(dá)的GPU的交付并未能始終跟上市場的需求。

因此,很多AI公司開始另謀出路,要么找其他的GPU生產(chǎn)商,要么決定自己研發(fā)AI芯片。即使你囤夠了英偉達(dá)的GPU,也還有其他限制,OpenAI在前段時(shí)間就被爆出,因?yàn)橛?xùn)練GPT-6,差點(diǎn)把微軟的電網(wǎng)搞癱瘓。馬斯克也曾說過,當(dāng)前限制AI發(fā)展的主要因素是算力資源,但在未來,電力會(huì)成為限制AI發(fā)展的另一阻礙。

wKgaomYntYiAPtWZAAF4Lc468Mk068.jpg

顯然,如果持續(xù)“大力出奇跡”,通過堆砌參數(shù)量來實(shí)現(xiàn)AI性能的提升,那么以上這些問題遲早會(huì)遇到,但是如果把大模型做小,使用較小的參數(shù)量,實(shí)現(xiàn)同樣或者更好的性能,那么將可以顯著減少對(duì)算力資源的需求,進(jìn)而減少對(duì)電力資源的消耗,從而讓AI在有限資源的情況下,得到更好的發(fā)展。

因此,接下來,誰能在將模型做小的同時(shí),還能實(shí)現(xiàn)性能的增長,也是實(shí)力的體現(xiàn)。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31488

    瀏覽量

    269875
  • 算力
    +關(guān)注

    關(guān)注

    1

    文章

    1012

    瀏覽量

    14910
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    企業(yè)AI租賃是什么

    企業(yè)AI租賃是指企業(yè)通過互聯(lián)網(wǎng)向?qū)I(yè)的提供商租用所需的計(jì)算資源,以滿足其AI應(yīng)用的需求。
    的頭像 發(fā)表于 11-14 09:30 ?1014次閱讀

    AI時(shí)代的重要性及現(xiàn)狀:平衡發(fā)展與優(yōu)化配置的挑戰(zhàn)

    AI時(shí)代,扮演著至關(guān)重要的角色。如果說數(shù)據(jù)是AI模型的“燃料”,那么
    的頭像 發(fā)表于 11-04 11:45 ?539次閱讀

    AI模型的最新研究進(jìn)展

    。例如,在醫(yī)療領(lǐng)域,生成式AI可以幫助醫(yī)生生成診斷報(bào)告、治療方案等;在教育領(lǐng)域,AI模型可以生成個(gè)性化的學(xué)習(xí)資源和建議。 多模態(tài)融合與交互 : AI
    的頭像 發(fā)表于 10-23 15:19 ?551次閱讀

    未來AI模型發(fā)展趨勢(shì)

    上得到了顯著提升。未來,算法和架構(gòu)的進(jìn)一步優(yōu)化將推動(dòng)AI模型在性能上實(shí)現(xiàn)新的突破。 多頭自注意機(jī)制、前饋神經(jīng)網(wǎng)絡(luò)等關(guān)鍵技術(shù)的改進(jìn),將增強(qiáng)模型的表達(dá)能力和泛化能力。 多模態(tài)融合 :
    的頭像 發(fā)表于 10-23 15:06 ?769次閱讀

    AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得

    的訓(xùn)練和推理提供了強(qiáng)大的支持,使得AI在科學(xué)研究中的應(yīng)用更加廣泛和深入。 3. 數(shù)據(jù)驅(qū)動(dòng)的研究范式 第二章還強(qiáng)調(diào)了數(shù)據(jù)在AI for Science中的核心地位。數(shù)據(jù)是
    發(fā)表于 10-14 09:16

    【「大模型時(shí)代的基礎(chǔ)架構(gòu)」閱讀體驗(yàn)】+ 未知領(lǐng)域的感受

    國慶前就收到《大模型時(shí)代的基礎(chǔ)架構(gòu)》一書,感謝電子發(fā)燒友論壇。歡度國慶之余,今天才靜下心來體驗(yàn)此書,書不厚,200余頁,彩色圖例,印刷精美! 當(dāng)初申請(qǐng)此書,主要是看到副標(biāo)題“大模型
    發(fā)表于 10-08 10:40

    模型時(shí)代的需求

    現(xiàn)在AI已進(jìn)入大模型時(shí)代,各企業(yè)都爭相部署大模型,但如何保證大模型,以及相關(guān)的穩(wěn)定性和性能
    發(fā)表于 08-20 09:04

    ai模型ai框架的關(guān)系是什么

    AI模型AI框架是人工智能領(lǐng)域中兩個(gè)重要的概念,它們之間的關(guān)系密切且復(fù)雜。 AI模型的定義和特點(diǎn)
    的頭像 發(fā)表于 07-16 10:07 ?4.4w次閱讀

    AI模型與傳統(tǒng)AI的區(qū)別

    AI模型(如LLM,即大型語言模型)與傳統(tǒng)AI在多個(gè)方面存在顯著的區(qū)別。以下將從技術(shù)層面、應(yīng)用場景、性能表現(xiàn)、計(jì)算資源和成本、以及發(fā)展趨勢(shì)
    的頭像 發(fā)表于 07-15 11:37 ?3024次閱讀

    AI模型發(fā)展歷程和應(yīng)用前景

    隨著人工智能技術(shù)的飛速發(fā)展AI模型逐漸成為研究與應(yīng)用領(lǐng)域的熱點(diǎn)。AI模型,顧名思義,是指具有巨大參數(shù)量的深度學(xué)習(xí)
    的頭像 發(fā)表于 07-03 18:20 ?1313次閱讀

    STM CUBE AI錯(cuò)誤導(dǎo)入onnx模型報(bào)錯(cuò)的原因?

    使用cube-AI分析模型時(shí)報(bào)錯(cuò),該模型是pytorch的cnn轉(zhuǎn)化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    發(fā)表于 05-27 07:15

    防止AI模型被黑客病毒入侵控制(原創(chuàng))聆思大模型AI開發(fā)套件評(píng)測(cè)4

    神經(jīng)網(wǎng)絡(luò)的電路實(shí)現(xiàn) // 比如說我們已經(jīng)有一臺(tái)神奇的AI黑科技在默默工作... endmodule // 我們召喚出這個(gè)神秘的AI模型
    發(fā)表于 03-19 11:18

    AI模型遠(yuǎn)程控制啟動(dòng)車輛(原創(chuàng))

    AI模型
    還沒吃飯
    發(fā)布于 :2024年03月18日 15:18:29

    使用cube-AI分析模型時(shí)報(bào)錯(cuò)的原因有哪些?

    使用cube-AI分析模型時(shí)報(bào)錯(cuò),該模型是pytorch的cnn轉(zhuǎn)化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    發(fā)表于 03-14 07:09

    數(shù)據(jù)語料庫、算法框架和芯片在AI模型中的作用和影響

    數(shù)據(jù)語料庫、算法框架和芯片的確是影響AI模型發(fā)展的三大重要因素。
    的頭像 發(fā)表于 03-01 09:42 ?1248次閱讀
    主站蜘蛛池模板: 亚洲日韩国产精品乱-久 | 国产成人免费手机在线观看视频 | 午夜视频在线瓜伦 | 在线欧美精品一区二区三区 | 欧美麻豆一精品一AV一免费 | 男助理憋尿PLAY灌尿BL出去 | 天美麻豆成人AV精品视频 | 魔乳 堕乳漫画acg产卵 | 4399日本电影完整版在线观看免费 | 伊人久久综在合线亚洲 | 国产午夜高潮熟女精品AV | 一个人的HD高清在线观看 | 久久国产露脸老熟女熟69 | adc免费观看 | 高中生高潮抽搐喷出白浆视频 | 熟女人妻久久精品AV天堂 | 国产69TV精品久久久久99 | 小蝌蚪视频在线观看免费观看WWW | 性白俄罗斯高清xxxxx | 国产三级精品三级男人的天堂 | 色柚视频网站ww色 | 麻豆精品传媒2021网站入口 | 99久久久A片无码国产精 | caoporen超碰在线视频 | 国产午夜电影在线观看不卡 | 男人插女人动态图 | 91蜜桃视频 | 青草国产超碰人人添人人碱 | 夜色88V精品国产亚洲AV | 99热最新在线 | 年轻的女教师2017韩国在线看 | CHINA篮球体育飞机2023 | 日韩精品一区VR观看 | 旧里番ovaの催○セイ活指导 | 男男腐文污高干嗯啊快点1V1 | 诱人的女邻居9中文观看 | 国产精品自产拍在线观看中文 | 亚洲国产成人精品青青草原100 | 手机伊在人线香蕉2 | www.亚洲天堂 | 超碰97av 在线人人操 |