色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

谷歌 | 大規模深度推薦模型的特征嵌入問題有解了!

WpOh_rgznai100 ? 來源:YXQ ? 2019-07-16 13:51 ? 次閱讀

導讀:本文主要介紹下Google在大規模深度推薦模型上關于特征嵌入的最新論文。

一、背景

大部分的深度學習模型主要包含如下的兩大模塊:輸入模塊以及表示學習模塊。自從NAS[1]的出現以來,神經網絡架構的設計上正在往數據驅動的自動機器學習方向演進。不過之前更多的研究都是聚焦在如何自動設計表示學習模塊而不是輸入模塊,主要原因是在計算機視覺等成熟領域原始輸入(圖像像素)已經是浮點數了。

輸入模塊:負責將原始輸入轉換為浮點數;表示學習模塊:根據輸入模塊的浮點值,計算得到模型的最終輸出;

而在推薦、搜索以及廣告工業界的大規模深度模型上,情況卻完全不同。因為包含大量高維稀疏的離散特征(譬如商品id,視頻id或者文章id)需要將這些類別特征通過embedding嵌入技術將離散的id轉換為連續的向量。而這些向量的維度大小往往被當做一個超參手動進行設定。

一個簡單的數據分析就能告訴我們嵌入向量維度設定的合理與否非常影響模型的效果。以YoutubeDNN[2]為例,其中使用到的VideoId的特征詞典大小是100萬,每一個特征值嵌入向量大小是256。僅僅一個VideoId的特征就包含了2.56億的超參,考慮到其他更多的離散類特征輸入模塊的需要學習的超參數量可想而知。相應地,表示學習模塊主要包含三層全連接層。也就是說大部分的超參其實聚集在了輸入模塊,那自然就會對模型的效果有著舉足輕重的影響。

二、主要工作

Google的研究者們在最新的一篇論文[3]中提出了NIS技術(Neural Input Search),可以自動學習大規模深度推薦模型中每個類別特征最優化的詞典大小以及嵌入向量維度大小。目的就是為了在節省性能的同時盡可能地最大化深度模型的效果。

并且,他們發現傳統的Single-size Embedding方式(所有特征值共享同樣的嵌入向量維度)其實并不能夠讓模型充分學習訓練數據。因此與之對應地,提出了Multi-size Embedding方式讓不同的特征值可以擁有不同的嵌入向量維度。

在實際訓練中,他們使用強化學習來尋找每個特征值最優化的詞典大小和嵌入向量維度。通過在兩大大規模推薦問題(檢索、排序)上的實驗驗證,NIS技術能夠自動學習到更優化的特征詞典大小和嵌入維度并且帶來在Recall@1以及AUC等指標上的顯著提升。

三、Neural Input Search問題

NIS-SE問題:SE(Single-size Embedding)方式是目前常用的特征嵌入方式,所有特征值共享同樣的特征嵌入維度。NIS-SE問題就是在給定資源條件下,對于每個離散特征找到最優化的詞典大小v和嵌入向量維度d。

這里面其實包含了兩部分的trade-off:一方面是各特征之間,更有用的特征應該給予更多的資源;另一方面是每個特征內部,詞典大小和嵌入向量維度之間。對于一個特征來說,更大的詞典可以有更大的覆蓋度,包含更多長尾的item;更多的嵌入向量維度則可以提升head item的嵌入質量,因為head item擁有充分的訓練數據。而SE在資源限制下無法同時做到高覆蓋度和高質量的特征嵌入。所以需要引入ME(Multi-size Embedding)。

NIS-ME問題:ME允許每個特征詞典內不同的特征值可以有不同的嵌入向量維度。其實就是為了實現越頻繁的特征值擁有更大的嵌入特征維度,因為有更多的訓練數據;而長尾的特征值則用更小的嵌入特征維度。引入ME為每一個類別離散特征找到最優化的詞典大小和嵌入向量維度,就可以實現在長尾特征值上的高覆蓋度以及在頻繁特征值上的高質量嵌入向量。下圖給出了embedding使用的場景例子中,SE和ME使用上的區別。

四、NIS解決方案

要想為每個類別離散特征手動找到最優化的詞典大小和嵌入向量維度是很難的,因為推薦廣告工業界的大規模深度模型的訓練時很昂貴的。為了達到在一次訓練中就能自動找到最優化的詞典大小和嵌入向量維度,他們改造了經典的ENAS[4]:

首先針對深度模型的輸入模塊提出了一個新穎的搜索空間;

然后有一個單獨的Controller針對每一個離散特征選擇SE或者ME;

其次可以根據Controller決策后考慮模型準確度和資源消耗計算得到reward;

最后可以根據reward使用強化學習A3C[5]訓練Controller進行迭代。

搜索空間

Embedding Block的概念實際上就是原始Embedding矩陣的分塊。如下圖所示,假設原始Embedding矩陣大小是(10M,256),圖a將其分成了20個Embedding Block。Controller為每個特征有兩種選擇:圖b所示的SE以及圖c的所示的ME。

Reward函數

主模型是隨著Controller的選擇進行訓練的,因此Controller的參數實際上是根據在驗證集上前向計算的reward通過RL追求收益最大化而來。考慮到在限定資源下的深度模型訓練,這里的reward函數設計為同時考慮業務目標與資源消耗。對于推薦領域的兩大主要任務:信息檢索和排序,信息檢索的目標可以使用Sampled Recall@1;而排序的目標則可以使用AUC。

五、實驗結果

他們在兩大大規模推薦模型問題:檢索和排序上進行了實驗。在同等資源消耗的情況下,NIS可以獲得顯著提升,詳細數據如下圖所示。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6217

    瀏覽量

    106945

原文標題:Google最新論文:大規模深度推薦模型的特征嵌入問題有解了!

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。

收藏 0人收藏

    評論

    相關推薦

    谷歌新一代 TPU 芯片 Ironwood:助力大規模思考與推理的 AI 模型新引擎?

    Cloud 客戶開放,將提供 256 芯片集群以及 9,216 芯片集群兩種配置選項。 ? 在核心亮點層面,Ironwood 堪稱谷歌首款專門為 AI 推理精心設計的 TPU 芯片,能夠有力支持大規模思考
    的頭像 發表于 04-12 00:57 ?621次閱讀

    模型領域常用名詞解釋(近100個)

    的分類進行了整理,以下供參考:模型架構與基礎概念大語言模型(LLM,LargeLanguageModel):一種基于深度學習的大規模神經網絡模型
    的頭像 發表于 02-19 11:49 ?476次閱讀
    大<b class='flag-5'>模型</b>領域常用名詞解釋(近100個)

    淺談適用規模充電站的深度學習有序充電策略

    深度強化學習能夠有效計及電動汽車出行模式和充電需求的不確定性,實現充電場站充電成本化的目標。通過對電動汽車泊車時間和充電需求特征進行提取,建立適用于大規模電動汽車有序充電的馬爾可夫決策過程模型
    的頭像 發表于 02-08 15:00 ?361次閱讀
    淺談適用<b class='flag-5'>規模</b>充電站的<b class='flag-5'>深度</b>學習有序充電策略

    【「基于大模型的RAG應用開發與優化」閱讀體驗】+大模型微調技術解讀

    微調:通過在預訓練模型中插入適配器模塊來適應特定任務,既保留了原始模型的性能,又能快速適應新任務。Prefix-Tuning:通過在輸入序列的前面添加特定前綴來微調模型,不需要對模型
    發表于 01-14 16:51

    NVIDIA與谷歌量子AI部門達成合作

    NVIDIA CUDA-Q 平臺使谷歌量子 AI 研究人員能夠為其量子計算機創建大規模的數字模型,以解決設計中面臨的各種挑戰
    的頭像 發表于 11-20 09:39 ?477次閱讀

    使用EMBark進行大規模推薦系統訓練Embedding加速

    推薦系統是互聯網行業的核心系統,如何高效訓練推薦系統是各公司關注的核心問題。目前,推薦系統基本上都是基于深度學習的大規模 ID 類模型模型包含數十億甚至數百億級別的 ID
    的頭像 發表于 10-31 14:46 ?484次閱讀
    使用EMBark進行<b class='flag-5'>大規模</b>推薦系統訓練Embedding加速

    谷歌正在考慮在越南建設超大規模數據中心

    據可靠消息透露,Alphabet集團旗下的谷歌公司正積極籌劃在越南南部的經濟樞紐胡志明市周邊建設一座“超大規模”數據中心。此舉標志著美國科技巨頭首次在東南亞國家進行此類重大投資,盡管具體的投資金額尚待揭曉。
    的頭像 發表于 08-30 14:55 ?806次閱讀

    深度學習的典型模型和訓練過程

    深度學習作為人工智能領域的一個重要分支,近年來在圖像識別、語音識別、自然語言處理等多個領域取得了顯著進展。其核心在于通過構建復雜的神經網絡模型,從大規模數據中自動學習并提取特征,進而實
    的頭像 發表于 07-03 16:06 ?2145次閱讀

    大規模語言模型:從理論到實踐】- 閱讀體驗

    再次感謝電子發燒友提供的書籍試讀機會。今天來分享下我在學習大模型訓練中 注意力機制 的心得體會。 雖然注意力機制可以顯著提高模型處理長序列數據的能力,但這也帶來了計算成本的增加。在大型模型中,自
    發表于 06-07 14:44

    谷歌云部門進行大規模裁員

    谷歌云部門近日進行了大規模裁員,多個Cloud團隊的員工收到了工作取消的通知。據一名知情員工透露,盡管受影響員工的總人數尚未明確,但亞太地區“Go To Market”團隊約有100名員工被裁。
    的頭像 發表于 06-05 09:48 ?763次閱讀

    大規模語言模型:從理論到實踐】- 每日進步一點點

    非常推薦大家去讀 【大規模語言模型:從理論到實踐】這本書,系統的講解了模型的前世今生,對各個環節知識進行了普及。 今天跟我一起學習歸一化的部分。 大
    發表于 05-31 19:54

    谷歌提出大規模ICL方法

    谷歌DeepMind團隊近日取得了一項突破性的研究成果。他們提出了強化和無監督兩種新型的ICL(In-Context Learning)學習方法,這一創新技術能夠在多個領域顯著提升模型的性能。
    的頭像 發表于 05-14 14:17 ?483次閱讀

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    處理各種自然語言任務時都表現出了驚人的能力。這促使一個新的研究方向誕生——基于Transformer 的預訓練語言模型。這類模型的核心思想是先利用大規模的文本數據進行預訓練,捕捉語言的通用特征
    發表于 05-05 12:17

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    了隨著模型規模擴大,其性能和能力提升速度的變化規律。這一定律在深度學習中表現為模型規模與性能改進之間的關系,通常表明擴大
    發表于 05-04 23:55

    谷歌發布用于輔助編程的代碼大模型CodeGemma

    谷歌發布了用于輔助編程的代碼大模型 CodeGemma。CodeGemma 基于谷歌今年 2 月發布的輕量級開源大模型 Gemma,針對 Gemma 的兩個不同參數
    的頭像 發表于 04-17 16:07 ?901次閱讀
    <b class='flag-5'>谷歌</b>發布用于輔助編程的代碼大<b class='flag-5'>模型</b>CodeGemma
    主站蜘蛛池模板: 久久久久久久久a免费 | 春暖花开 性 欧洲 | 男人团apk | 国产亚洲精品久久久久久禁果TV | 奇米狠狠一区二区三区 | 吻嘴胸全身好爽床大全 | 欧美含羞草免费观看全部完 | 青娱乐极品视觉盛宴av | 无码人妻精品一区二区蜜桃在线看 | 黑人特黄AA完整性大片 | 国产精品一区二区20P | 老师破女学生特级毛片 | 亚洲高清无在码在线电影 | 一道精品视频一区二区 | 亚洲欧美综合在线中文 | 黑人干亚洲人 | 欧美派对xxxhdparty | 国产精品亚洲AV色欲在线观看 | 日本xxx片免费高清在线 | 国产永久免费高清在线观看 | 三级黄色片免费观看 | 亚洲国产成人久久一区www妖精 | 无套暴躁白丝秘书 | qvod 电影| 极品少妇粉嫩小泬啪啪AV | 精品无人区一区二区三区 | 国产人妻人伦精品熟女麻豆 | 91国内精品久久久久免费影院 | 国内一级一级毛片a免费 | 果冻传媒视频在线播放 | 被黑人做的白浆直流 | 亚洲精品久久YY5099 | 羞羞漫画视频 | 国产成人免费手机在线观看视频 | 又粗又大又爽又黄的免费视频 | 最新无码国产在线视频2020 | 欧美eee114| 亚洲色无码播放 | 亚洲午夜性春猛交XXXX | 闺蜜撬开我的腿用黄瓜折磨我 | 日韩人妻无码精品久久中文字幕 |

    電子發燒友

    中國電子工程師最喜歡的網站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術信息
    • 參加活動獲取豐厚的禮品