色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

錯誤使用GPT-3:成本卻降低了40倍,速度提高了5倍

jf_WZTOguxH ? 來源:Buildt ? 2023-03-01 09:56 ? 次閱讀

Buildt 使用 OpenAI 基礎(chǔ)模型已經(jīng)有一段時間了。這些模型非常強大,關(guān)于這一點,互聯(lián)網(wǎng)上已經(jīng)有了大量的記錄,特別是隨著 ChatGPT 的出現(xiàn),它的關(guān)注度超過了之前 GPT-3 的 100 倍。然而,在應(yīng)用這些模型解決相應(yīng)問題(代碼庫搜索、理解和增強)的過程中,我們發(fā)現(xiàn)了一個明顯的障礙:延遲和成本。比較大的模型(特別是 davinci 家族)無疑能產(chǎn)生最高質(zhì)量的輸出,但運行起來也最慢、最昂貴。

要獲得良好的搜索體驗,顯然速度就得快。你看谷歌,100 毫秒就可以索引數(shù)百萬個網(wǎng)頁,代碼庫搜索也是如此。我們發(fā)現(xiàn),在單個搜索中,其中一個最耗時的點就是生成輸出的 LLM 層(我們使用 LLM 來增強搜索,讓你可以搜索代碼是什么,而不是它做什么,例如“找出最慢的遞歸函數(shù)”)。Alex grave 是 Github Copilot 的創(chuàng)建者之一。據(jù)他說,每增加 10 毫秒的延遲,完成率就會下降 1%。這一邏輯也適用于搜索。所以,當務(wù)之急是從 davinci 這樣的大型模型轉(zhuǎn)向 ada 和 babbage 這樣的小型模型。

92440896-b1cb-11ed-bfe3-dac502259ad0.png

我們的解決方案很簡單,對于給定的任務(wù),由 davinci 生成一個中等大小的語料庫,并精心優(yōu)化像 babbage 這樣的模型來完成相同的任務(wù)。如果操作得當,你可以以低 40 倍的成本、低 4-5 倍的延遲獲得幾乎相同的完成率(或至少 90% 的相似性)。

如果你愿意花點時間,則還可以在循環(huán)中加一個人:我們最近就做了這樣的事情來優(yōu)化 babbage 模型,以便能夠識別代碼的特征,所以我讓 ChatGPT 幫我創(chuàng)建了一個基本的 Web UI,讓我們可以輕松地審核和改進 davinci 所的識別結(jié)果;從根本上說,你永遠無法從一個更小的模型那里獲得類似的性能,所以讓完成率勝過你試圖模仿的模型,意味著你至少在訓(xùn)練完成時就比較接近。

9264637a-b1cb-11ed-bfe3-dac502259ad0.jpg

關(guān)于這種技術(shù),我想的最多的一個問題是:我需要多少樣本?答案恐怕是“視情況而定”。

根據(jù)經(jīng)驗,如果你只是想標準化平淡無奇的輸出格式,那么你可以用幾百個樣本;如果你是在做邏輯推理,那么你至少需要 1000 個樣本;如果你在做 DSL 工作,那么你需要幾千個樣本。樣本大小通常會是一個障礙,但有了用更大的模型來生成合成數(shù)據(jù)集的方法,那突然變得比較容易處理了,特別是當這些模型變得越來越好時。

這種方法有很多應(yīng)用場景;如果你有一個提示符,它可以重復(fù)做同樣的工作,那么你就可以使用這項技術(shù)來加快速度,降低成本。

有人問過我這種方法的維護問題,特別是如果想要更改輸出結(jié)構(gòu)時會出現(xiàn)什么情況。我們內(nèi)部構(gòu)建了一個經(jīng)過精心優(yōu)化的管道來自動化整個過程,其底層是 davinci-003 提示符,然后我們用它來生成 n 個合成樣本,格式化后傳遞給 OpenAI 調(diào)優(yōu) API,它會吐出一個調(diào)優(yōu)過的模型。這樣,如果你想更改提示符的輸出,只需一次單擊就可以更新一個調(diào)優(yōu)過的模型。

我總是很樂意談?wù)撨@個話題,歡迎在 Twitter 上關(guān)注我(@AlistairPullen),我上面描述的所有內(nèi)容都可以在我們的代碼搜索工具 Buildt 中找到。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3294

    瀏覽量

    49037
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1116

    瀏覽量

    6625

原文標題:錯誤使用 GPT-3:成本卻降低了40 倍,速度提高了5 倍

文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    OpenAI GPT-5開發(fā)滯后:訓(xùn)練成本高昂

    近日,據(jù)最新消息,OpenAI在推進其備受期待的下一代旗艦?zāi)P?b class='flag-5'>GPT-5的開發(fā)進程上遇到了困難。由于計算成本高昂且高質(zhì)量訓(xùn)練數(shù)據(jù)稀缺,GPT-5的開發(fā)已經(jīng)落后于原定計劃半年之久。 據(jù)悉,OpenAI
    的頭像 發(fā)表于 12-23 11:04 ?255次閱讀

    使用TPA6111A2提高放大倍數(shù)為2時發(fā)熱嚴重,為什么?

    問題:使用TPA6111A2,當放大倍數(shù)為1時,R1=20K,其反饋電阻RF=22K,空載時候電壓不升高,不發(fā)熱.而當我要提高放大倍數(shù)為2時候,反饋電阻RF=51K的時候,空載時電壓升高發(fā)熱,負載時電壓
    發(fā)表于 11-07 07:25

    使用TPS5401提高了電表脫扣離線電源的負載電流能力

    電子發(fā)燒友網(wǎng)站提供《使用TPS5401提高了電表脫扣離線電源的負載電流能力.pdf》資料免費下載
    發(fā)表于 10-10 10:26 ?0次下載
    使用TPS5401<b class='flag-5'>提高了</b>電表脫扣離線電源的負載電流能力

    壓整流的缺點有哪些

    缺點,以下是對這些缺點的分析: 效率問題 : 壓整流電路的效率通常低于全波整流電路。這是因為在壓整流中,每個二極管在每個周期內(nèi)只導(dǎo)通一半的時間,而全波整流則有兩個二極管在每個周期內(nèi)導(dǎo)通,從而提高了效率。
    的頭像 發(fā)表于 10-09 11:11 ?600次閱讀

    TPL7407L提高了外圍驅(qū)動的散熱和能效

    電子發(fā)燒友網(wǎng)站提供《TPL7407L提高了外圍驅(qū)動的散熱和能效.pdf》資料免費下載
    發(fā)表于 10-08 09:55 ?0次下載
    TPL7407L<b class='flag-5'>提高了</b>外圍驅(qū)動的散熱和能效

    英偉達預(yù)測機器人領(lǐng)域或迎“GPT-3時刻”

    未來2-3年內(nèi),機器人基礎(chǔ)模型的研究將迎來重大突破,這一時刻被形象地比喻為機器人領(lǐng)域的“GPT-3時刻”。
    的頭像 發(fā)表于 09-20 17:05 ?840次閱讀

    Jim Fan展望:機器人領(lǐng)域即將迎來GPT-3式突破

    英偉達科學(xué)家9月19日,科技媒體The Decoder發(fā)布了一則引人關(guān)注的報道,英偉達高級科學(xué)家Jim Fan在近期預(yù)測,機器人技術(shù)將在未來兩到三年內(nèi)迎來類似GPT-3在語言處理領(lǐng)域的革命性突破,他稱之為機器人領(lǐng)域的“GPT-3時刻”。
    的頭像 發(fā)表于 09-19 15:13 ?622次閱讀

    Anthropic 發(fā)布Claude 3.5 Sonnet模型運行速度是Claude 3 Opus的兩

    Anthropic 發(fā)布Claude 3.5 Sonnet最新模型 新模型在推理、知識和編碼能力評估方面超越了以前的版本和競爭對手GPT 4o模型,同時其運行速度是Claude 3 Opus的兩
    的頭像 發(fā)表于 06-21 15:43 ?874次閱讀
    Anthropic 發(fā)布Claude 3.5 Sonnet模型運行<b class='flag-5'>速度</b>是Claude <b class='flag-5'>3</b> Opus的兩<b class='flag-5'>倍</b>

    激光功率測量速度提高了5

    新型 Coherent PM10K+ 激光傳感器大大加快了高達 10?kW 的工業(yè)激光器的功率測量速度。 高功率激光技術(shù)在不斷發(fā)展,焊接、切割和覆層應(yīng)用的平均功率顯著提高,從而拓展了其功能范圍。在這
    的頭像 發(fā)表于 06-21 06:34 ?345次閱讀
    激光功率測量<b class='flag-5'>速度</b><b class='flag-5'>提高了</b><b class='flag-5'>5</b><b class='flag-5'>倍</b>

    開發(fā)者如何調(diào)用OpenAI的GPT-4o API以及價格詳情指南

    ?目前,OpenAI新模型GPT-4o和GPT-4 Turbo的價格如下: GPT-4o 對比 GPT-4 Turbo GPT-4o 擁有與
    的頭像 發(fā)表于 05-29 16:00 ?1.2w次閱讀
    開發(fā)者如何調(diào)用OpenAI的<b class='flag-5'>GPT</b>-4o API以及價格詳情指南

    谷歌推出Trillium AI芯片,性能提高5

    谷歌推出了其最新的人工智能數(shù)據(jù)中心芯片——Trillium。這款芯片是谷歌的第六代產(chǎn)品,與上一代TPU v5e相比,Trillium在每個芯片上的峰值計算性能提高了4.7,節(jié)能67%以上。
    的頭像 發(fā)表于 05-16 10:39 ?811次閱讀

    OpenAI全新GPT-4o能力炸場!速度快/成本低,能讀懂人類情緒

    ”的意思。GPT-4o文本、推理、編碼能力達到GPT-4 Turbo水平,速度是上一代AI大模型GPT-4 Turbo的兩,但
    的頭像 發(fā)表于 05-15 00:15 ?7888次閱讀

    用萬用表測試發(fā)現(xiàn)電機UVW的電壓只有12V左右,跟母線電壓比降低了4,是否有辦法提高

    環(huán)境:FOC5.2.0 母線電壓:48VDC 問題:用萬用表測試發(fā)現(xiàn)電機UVW的電壓只有12V左右,跟母線電壓比降低了4,是否有辦法提高
    發(fā)表于 04-24 08:25

    微機消諧裝置提高了電網(wǎng)的運行效率

    裝置顯著提高了電網(wǎng)的電能質(zhì)量。電網(wǎng)中的諧波會導(dǎo)致電壓和電流的波形畸變,影響設(shè)備的正常運行。微機消諧裝置通過精確的檢測和快速的響應(yīng),能夠有效地消除諧波,使電網(wǎng)的電壓和電流波形更加穩(wěn)定,從而提高電能質(zhì)量。 其次,
    的頭像 發(fā)表于 04-02 14:40 ?413次閱讀

    新型散熱材料金剛石納米膜有望將電動汽車的充電速度提升五

    近日,德國弗勞恩霍夫研究所 (Fraunhofer) 的科學(xué)家們利用超薄金剛石膜成功降低了電子元件的熱負荷,并有望將電動汽車的充電速度提升五
    的頭像 發(fā)表于 03-07 16:33 ?1420次閱讀
    新型散熱材料金剛石納米膜有望將電動汽車的充電<b class='flag-5'>速度</b>提升五<b class='flag-5'>倍</b>
    主站蜘蛛池模板: 97在线超碰免费视频| 免费一区在线观看| 短篇合集纯肉高H深陷骚| 日本久久频这里精品99| 国产精品JIZZ视频免费| 亚洲午夜精品A片久久不卡蜜桃| 久久精选视频| 亚洲精品福利一区二区在线观看| 后入内射国产一区二区| 18动漫在线观看| 久久橹| a圾片目录大全| 无限资源日本2019版| 成人影片下载网站| 亚洲高清视频一区| 美女不要啊| 国产精品人妻无码免费A片导航 | 毛片一区二区三区| 灌满内射HP1V1| 天美传媒MV高清免费看| 国产不卡视频在线观看| 影音先锋男人资源813.| 国内精品久久久久久久试看 | FREE乌克兰嫩交HD| 亚洲精品第一页中文字幕| 男男免费看| 极品虎白在线观看| 岛国大片在线播放免费| 在线亚洲专区中文字幕| 四虎永久在线精品国产| 免费国产久久啪久久爱| 国产主播AV福利精品一区| ppypp午夜限制不卡影院私人 | 秋霞午夜一级理论片久久| 久久sese| bbwvideoa欧美老妇| 亚洲一区免费观看| 沈阳熟女露脸对白视频| 男人大臿蕉香蕉大视频| 高挑人妻无奈张开腿| 自拍区偷拍亚洲视频|