色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

雙塔模型擴(kuò)量負(fù)樣本的方法比較

深度學(xué)習(xí)自然語言處理 ? 來源:NewBeeNLP ? 作者:雨下 ? 2022-07-08 10:57 ? 次閱讀

之前有一段時間做過雙塔的召回模型[1],線上各個指標(biāo)有了不錯的提升。目前雙塔模型也是被各大公司鐘愛的召回模型。對主流召回模型的分享整理在:總結(jié)下自己做過的深度召回模型

雙塔模型在訓(xùn)練時是對一個batch內(nèi)樣本訓(xùn)練。一個batch內(nèi)每個樣本 (user和item對)為正樣本,該user與batch內(nèi)其它item為負(fù)樣本。這樣訓(xùn)練的方式可能有以下問題:

負(fù)樣本的個數(shù)不足。訓(xùn)練時負(fù)樣本個數(shù)限制在了batch內(nèi)樣本數(shù)減1,而線上serving時需要在所有候選集中召回用戶感興趣的樣本。模型只能從當(dāng)前batch內(nèi)區(qū)分出batch內(nèi)正樣本,無法很好地從所有候選集中區(qū)分正樣本。

未點擊的item沒有做負(fù)樣本。由于batch內(nèi)的item都是被點擊過的,因此沒有被點擊item無法成為負(fù)樣本,在線上serving容易它們被召回出來。一種解決方法是之前沒被點擊過的item不導(dǎo)出到候選集中,然而這樣存在的問題是召回的item很多是之前點擊的熱門item,而很多冷門的item沒有機(jī)會召回。

最近,有兩篇文章提出了雙塔模型擴(kuò)量負(fù)樣本的方法。這兩種方法我也曾嘗試過,線下線上指標(biāo)也有一定的提升。

一、Two Tower Model

再介紹其它方法之前,先回顧一下經(jīng)典的雙塔模型建模過程。

用 表示雙塔模型計算的user 和item 的相似性:

是表示user塔,輸出user表示向量; 是item,輸出item表示向量。最后相似性是兩個向量的余弦值。batch內(nèi)概率計算公式為:表示一個batch的意思。損失函數(shù)是交叉熵。

作者在計算user和item的相似度時,用了兩個優(yōu)化方法:

。 可以擴(kuò)大相似度范圍,擴(kuò)大差距。

。 是item 在隨機(jī)樣本中被采樣的概率,也就是被點擊的概率。

關(guān)于優(yōu)化2的解釋有很多。論文中說熱門item出現(xiàn)在batch內(nèi)概率較大,因此會被大量做負(fù)樣本。另一種解釋是增加對冷門item的相似度。相比熱門item,冷門item更能反映用戶興趣。

圖1反映了雙塔模型的batch采樣過程。query也可以表示user。我們采樣一個batch的user和對應(yīng)正樣本的item,計算各自的embedding后,通過點乘得到logits(B*B)的矩陣。label矩陣是一個單位矩陣。logit矩陣與label矩陣的每對行向量一起求交叉熵。

e387cbe6-f6d4-11ec-ba43-dac502259ad0.png

圖1:雙塔模型batch采樣

二、Mixed Negative Samping(MNS)

MNS[2]與雙塔模型[1]出自谷歌團(tuán)隊的同一批作者。用一個batch數(shù)據(jù)訓(xùn)練時,MNS還會在所有的數(shù)據(jù)集中采樣出 個item。這樣可以讓所有的item參與到訓(xùn)練中,一些曝光未點擊的item也會當(dāng)作負(fù)樣本。同時,雙塔模型中使用的 等于訓(xùn)練樣本中的頻率加上所有數(shù)據(jù)集中的頻率分布。概率公式重新定義如下:

作者在這里只對負(fù)樣本的相似性減去了頻率的log值。

MNS的batch采樣方法見圖2。最終計算的logits和label矩陣是一個B*(B+B')維的。其實就是在圖1展示的基礎(chǔ)上再增加B'列。logits的最后B'列是user與B‘內(nèi)的item計算的相似性,label的最后B'列是全0矩陣。

相比于每個樣本都隨機(jī)采樣出一定量的負(fù)樣本,為每個batch都采樣出B‘個負(fù)樣本的不僅有先前雙塔模型的計算效率,也緩和負(fù)樣本不足的問題,并且讓每個樣本均有機(jī)會做負(fù)樣本。

e3a3695a-f6d4-11ec-ba43-dac502259ad0.png

圖2:MNS的batch采樣

三、Cross Batch Negative Samping(CBNS)

CBNS[2]是清華大學(xué)和華為合作提出的方法。文中提到,雙塔模型的計算優(yōu)勢在于利用了batch內(nèi)的負(fù)樣本,減小的計算量。如果我們想擴(kuò)大batch內(nèi)樣本個數(shù),加大負(fù)樣本個數(shù),需要很多的內(nèi)存。因此,作者提出一個使用之前訓(xùn)練過的item作為負(fù)樣本的方法。

神經(jīng)網(wǎng)絡(luò)訓(xùn)練達(dá)到一定輪數(shù)后,會對相同的樣本產(chǎn)生穩(wěn)定的向量。作者在論文中定義了這個想法。因此把之前訓(xùn)練過的item作為當(dāng)前訓(xùn)練的負(fù)樣本時,模型只需要把這些item的向量拿過來使用,不需要再輸出到神經(jīng)網(wǎng)絡(luò)中產(chǎn)生新的向量,畢竟這兩種向量的差距較小。

作者使用了FIFO(先進(jìn)先出)隊列,item塔輸出向量時,會放進(jìn)FIFO中。當(dāng)warm-up training達(dá)到一定的輪數(shù)后,訓(xùn)練模型時,會從FIFO拿出一批向量作為負(fù)樣本的向量。這樣做不僅減少了計算量,在擴(kuò)充負(fù)樣本的時候也減少了內(nèi)存的使用。計算公式與MNS差別不大:

也就是內(nèi)容一中的優(yōu)化2。B'在這里是從FIFO中取出的一批向量。

圖3展示了CBNS與只用batch內(nèi)負(fù)樣本的不同。CBNS維持了一個memory bank。在訓(xùn)練時,會從里面拿出一定量的向量。

然而,CBNS的負(fù)樣本只有點擊過的樣本,未點擊的樣本無法作為負(fù)樣本。

e3b87548-f6d4-11ec-ba43-dac502259ad0.png

圖3:CBNS采樣方法

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4774

    瀏覽量

    100896
  • fifo
    +關(guān)注

    關(guān)注

    3

    文章

    389

    瀏覽量

    43742

原文標(biāo)題:雙塔模型如何選擇負(fù)樣本?

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    云端語言模型開發(fā)方法

    云端語言模型的開發(fā)是一個復(fù)雜而系統(tǒng)的過程,涉及數(shù)據(jù)準(zhǔn)備、模型選擇、訓(xùn)練優(yōu)化、部署應(yīng)用等多個環(huán)節(jié)。下面,AI部落小編為您分享云端語言模型的開發(fā)方法
    的頭像 發(fā)表于 12-02 10:48 ?156次閱讀

    RNN與LSTM模型比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))與LSTM(長短期記憶網(wǎng)絡(luò))模型在深度學(xué)習(xí)領(lǐng)域都具有處理序列數(shù)據(jù)的能力,但它們在結(jié)構(gòu)、功能和應(yīng)用上存在顯著的差異。以下是對RNN與LSTM模型比較分析: 一、基本原理與結(jié)構(gòu)
    的頭像 發(fā)表于 11-15 10:05 ?593次閱讀

    常見AI大模型比較與選擇指南

    在選擇AI大模型時,明確具體需求、了解模型的訓(xùn)練數(shù)據(jù)、計算資源要求和成本,并考慮模型的可解釋性和社區(qū)支持情況等因素至關(guān)重要。以下是對常見AI大模型
    的頭像 發(fā)表于 10-23 15:36 ?941次閱讀

    AI大模型的性能優(yōu)化方法

    AI大模型的性能優(yōu)化是一個復(fù)雜而關(guān)鍵的任務(wù),涉及多個方面和策略。以下是一些主要的性能優(yōu)化方法: 一、模型壓縮與優(yōu)化 模型蒸餾(Model Distillation) 原理:通過訓(xùn)練一個
    的頭像 發(fā)表于 10-23 15:01 ?772次閱讀

    氣密性檢測:為什么在負(fù)壓測試中泄漏是正值,什么時候出現(xiàn)負(fù)值

    本文介紹了氣密性檢測的基本原理,解釋了為什么在正壓和負(fù)壓測試中泄漏都顯示為正值,還揭示了差壓氣密性檢測結(jié)果出現(xiàn)負(fù)值的有趣現(xiàn)象。通視頻案例,幫助讀者輕松理解氣密性檢測中的各種情況,提高實際工作中解決問題的能力。
    的頭像 發(fā)表于 08-22 16:59 ?582次閱讀
    氣密性檢測:為什么在<b class='flag-5'>負(fù)</b>壓測試中泄漏<b class='flag-5'>量</b>是正值,什么時候出現(xiàn)負(fù)值

    OPA564能否補(bǔ)償擴(kuò)寬增益帶寬積?

    OPA564有無方法擴(kuò)寬增益帶寬積,若無,是否有能滿足2Mhz正弦偏置電流輸出能力的方法
    發(fā)表于 07-30 07:16

    BP神經(jīng)網(wǎng)絡(luò)樣本的獲取方法

    的訓(xùn)練樣本是至關(guān)重要的。 數(shù)據(jù)收集 數(shù)據(jù)收集是構(gòu)建BP神經(jīng)網(wǎng)絡(luò)模型的第一步。根據(jù)研究領(lǐng)域和應(yīng)用場景的不同,數(shù)據(jù)來源可以分為以下幾種: 1.1 實驗數(shù)據(jù):通過實驗或觀察獲得的數(shù)據(jù),如生物實驗、化學(xué)實驗等。 1.2 傳感器數(shù)據(jù):通過傳感器收集的數(shù)據(jù),如溫度、濕度、壓力等。
    的頭像 發(fā)表于 07-11 10:50 ?626次閱讀

    人臉識別模型訓(xùn)練失敗原因有哪些

    : 1.1 數(shù)據(jù)不足 人臉識別模型需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練,以提高模型的泛化能力。如果數(shù)據(jù)不足,模型可能無法學(xué)習(xí)到足夠的特征,導(dǎo)致訓(xùn)練失敗
    的頭像 發(fā)表于 07-04 09:17 ?661次閱讀

    助聽器降噪神經(jīng)網(wǎng)絡(luò)模型

    用提前停止。該模型以 32 的批量大小進(jìn)行訓(xùn)練,每個樣本的長度為 15 秒。 Nvidia RTX 2080 TI 上一個訓(xùn)練周期的平均時間約為 21 分鐘。使用尺度敏感的負(fù) SNR [20] 作為
    發(fā)表于 05-11 17:15

    【大語言模型:原理與工程實踐】大語言模型的應(yīng)用

    類任務(wù)上表現(xiàn)出色,甚至在零樣本條件下也能取得良好效果。另一類則需要逐步推理才能完成的任務(wù),類似于人類的系統(tǒng)2,如數(shù)字推理等。然而,隨著參數(shù)量的增加,大語言模型在這類任務(wù)上并未出現(xiàn)質(zhì)的飛躍,除非有精心
    發(fā)表于 05-07 17:21

    淺析比較器出現(xiàn)負(fù)輸入電壓的原因、影響及其解決辦法

    比較器是一種常見的電子元件,用于將兩個輸入電壓進(jìn)行比較,并輸出相應(yīng)的電平。在實際應(yīng)用中,有時會出現(xiàn)負(fù)輸入電壓的情況,這可能會對比較器的正常工作產(chǎn)生影響。
    的頭像 發(fā)表于 02-17 14:56 ?3711次閱讀
    淺析<b class='flag-5'>比較</b>器出現(xiàn)<b class='flag-5'>負(fù)</b>輸入電壓的原因、影響及其解決辦法

    小紅書搜索團(tuán)隊研究新框架:負(fù)樣本在大模型蒸餾中的重要性

    在思維鏈(CoT)提示的幫助下,大語言模型(LLMs)展現(xiàn)出強(qiáng)大的推理能力。然而,思維鏈已被證明是千億級參數(shù)模型才具有的涌現(xiàn)能力。
    的頭像 發(fā)表于 01-30 10:37 ?1076次閱讀
    小紅書搜索團(tuán)隊研究新框架:<b class='flag-5'>負(fù)</b><b class='flag-5'>樣本</b>在大<b class='flag-5'>模型</b>蒸餾中的重要性

    模型Reward Model的trick應(yīng)用技巧

    借助對比學(xué)習(xí)和元學(xué)習(xí)的方法。增加對比學(xué)習(xí)的loss,對比學(xué)習(xí)通過增強(qiáng)模型區(qū)分能力,來增強(qiáng)RM的對好壞的區(qū)分水平。元學(xué)習(xí)則使獎勵模型能夠維持區(qū)分分布外樣本的細(xì)微差異,這種
    發(fā)表于 01-25 09:31 ?1049次閱讀
    大<b class='flag-5'>模型</b>Reward Model的trick應(yīng)用技巧

    2023年LLM大模型研究進(jìn)展

    作為做LLM應(yīng)用的副產(chǎn)品,我們提出了RLCD[11],通過同時使用正例和負(fù)例prompt,自動生成帶標(biāo)簽的生成樣本不需人工標(biāo)注,然后可以接大模型微調(diào),或者用于訓(xùn)練reward models
    發(fā)表于 01-19 13:55 ?497次閱讀

    傳導(dǎo)的測試與測介紹

    、最直接的傳導(dǎo)測試方法。該方法通過使用萬用表或示波器等儀器,直接測量電路中的電壓和電流值,從而計算出電阻值。這種方法適用于簡單的電路和低電阻值的場合。 比較
    的頭像 發(fā)表于 01-18 14:57 ?1895次閱讀
    傳導(dǎo)的測試與<b class='flag-5'>量</b>測介紹
    主站蜘蛛池模板: 97视频在线观看免费视频| 9477小游戏| 福利视频久久| 国内精品欧美久久精品| 亚洲国产综合人成综合网站00| 91系列在线观看免费| 校园女教师之禁区| 偷拍久久国产视频免费| 三级黄在线播放| 日本高清免费在线| 欧美午夜理伦三级在线观看| 嗯啊…跟校草在教室里做h | 精品久久香蕉国产线看观看麻豆| 国产伦精品一区二区三区精品 | 色狼亚洲色图| 我们中文在线观看免费完整版| 天堂岛www天堂资源在线| 视频区 国产 欧美 日韩| 甜性涩爱免费下载| 息与子在线交尾中文字幕| 西施打开双腿下面好紧| 亚洲精品动漫免费二区| 亚洲性无码AV久久成人| 依恋影院在线观看| 2020亚洲国产在线播放在线| 99久久无码一区人妻A片蜜| yellow高清免费观看日本| 高清观看ZSHH96的视频素材| 国产精品欧美亚洲| 寂寞夜晚视频高清观看免费| 久久婷婷色一区二区三区| 男的插曲女的下面免费APP| 青柠在线观看免费全集| 手机观看毛片| 亚洲欧美国产双大乳头| 中文字幕乱码一区久久麻豆樱花| 99在线免费| 国产精品1区在线播放| 吉吉影音先锋av资源| 免费夜色污私人影院网站| 乳女教师欲乱动漫无修版动画 |