色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

為 Learning-to-Rank 打造的可擴展 TensorFlow 庫

Tensorflowers ? 來源:工程師曾暄茗 ? 2018-12-22 09:26 ? 次閱讀

排名 (Ranking) 意指為最大程度地利用整個列表而對列表項進行排序的過程,其適用領域非常廣泛,涉及搜索引擎與系統推薦、機器翻譯、對話系統乃至計算生物學等。在諸如此類(及許多其他類型)的應用中,研究人員經常會使用一組稱為Learning-to-Rank的監督式機器學習技術。在許多情況下,這些 Learning-to-Rank 技術應用于規模很龐大的數據集—在此類情形中,TensorFlow的可擴展性可能是一種優勢。但當前,我們還沒有為在 TensorFlow 中應用 Learning-to-Rank 技術提供 “開箱即用” 的支持。據我們所知,目前也沒有其他開源庫專門大規模應用 Learning-to-Rank 技術。今天,我們很高興與諸位分享TF-Ranking,這是一個專為 Learning-to-Rank 打造的可擴展的 TensorFlow 庫。正如我們在近期的論文中所述,TF-Ranking 提供的統一框架包含一套最先進的 Learning-to-Rank 算法,并支持Pairwise 或 Listwise 損失函數、多項目評分、排名指標優化以及無偏差 Learning-to-Rank。TF-Ranking 運行速度快,易于使用,并可創建高質量的排名模型。統一的框架讓機器學習研究人員、從業者和愛好者能夠在單個庫中評估并選擇一組不同的排名模型。此外,我們堅信,作為一個實用的開源庫,其核心不僅在于提供合理的默認值,還應當能讓用戶開發其自定義模型。因此,我們提供了靈活的 API,用戶可在此 API 中定義并插入自定義損失函數、評分函數和指標。

對現有算法和指標的支持

Learning-to-Rank 算法的目標是將針對項目列表定義的損失函數最小化,從而優化給定應用列表排序的效用。TF-Ranking 支持我們在先前研究中所描述的大量標準 Pointwise、Pairwise 和 Listwise 損失函數。這不僅能確保使用 TF-Ranking 庫的研究人員可復制和擴展過去發布的基準,也能讓從業者為其應用做出最明智的選擇。此外,TF-Ranking 能通過嵌入和擴展至數百億個訓練實例來處理稀疏特征(如原始文本)。因此,無論是誰,只要對構建真實數據密集型排名系統(例如網頁搜索或新聞推薦)抱有興趣,均可將 TF-Ranking 用作強大的可擴展解決方案。經驗評估是所有機器學習或信息檢索研究的重要一環。為確保兼容先前的研究,TF-Ranking 支持許多常用的排名指標,包括平均倒序排名(MRR) 和標準化折扣累積收益(NDCG)。訓練期間,我們還可在TensorBoard(一種開源的 TensorFlow 可視化信息中心)上輕松查看這些指標。

隨訓練步驟(X 軸)變化的 NDCG 指標(Y 軸)示例(在 TensorBoard 上顯示)。該示例顯示出指標在訓練期間的整體進度。您可以在信息中心上直接對不同的方法進行比較,根據指標選擇最佳模型

多項目評分

TF-Ranking 支持一種新穎的評分機制,可以對多個項目(例如網頁)執行聯合評分,這是對傳統評分范例(對單個項目進行獨立評分)的擴展。關于多項目評分,我們經常面臨的一個挑戰是,難以判斷需將哪些項目進行分組并在子組中進行評分。然后,累計每個項目的評分并用于排序。為了讓用戶免于接觸這些復雜原理,TF-Ranking 提供了一個 List-In-List-Out (LILO) API,將所有邏輯封裝于導出的 TensorFlow 模型內。

TF-Ranking 庫支持多項目評分架構,這是對傳統單項目評分的擴展

正如近期研究中所示,在公開的LETOR基準測試中,相較 RankNet、MART 和 LambdaMART 等最新 Learning-to-Rank 模型,多項目評分在性能表現方面極具競爭力。

排名指標優化

直接優化排名指標(例如前文所提及的 NDCG 和 MRR)是 Learning-to-Rank 中的一個重大研究難題。雖然這些指標對排名系統性能的衡量效果優于曲面下面積(AUC) 等標準分類指標,但遺憾的是,它們具有間斷或扁平的屬性。因此,這些指標的標準隨機梯度下降優化是存在問題的。在近期研究中,我們提出了一種稱作 LambdaLoss 的新型方法,可為排名指標優化提供一個條理化的概率框架。在此框架內,用戶可通過期望最大化程序來設計與優化指標驅動的損失函數。TF-Ranking 庫集成了直接指標優化的最新成果,并可提供 LambdaLoss 的實現。我們希望此方法能激勵并推動排名指標優化在重大領域內的進一步研究發展。

無偏差 Learning-to-Rank

先前的研究表明,若給定排名后的項目列表,用戶更有可能與前幾個結果進行交互,而無論其相關性如何。這一發現激發了研究人員對無偏差 Learning-to-Rank的研究興趣,他們在對訓練實例重新加權的基礎上開發出了無偏差評估和多種無偏差學習算法。TF-Ranking 庫不僅能實現支持無偏差評估的指標,還能通過原生支持重新加權來實現無偏差學習損失函數,從而解決用戶與數據集交互時出現的固有偏差。

TF-Ranking 入門

TF-Ranking 實現了TensorFlow Estimator接口,可通過封裝訓練、評估、預測和服務導出大幅度簡化機器學習編程。TF-Ranking 與豐富的 TensorFlow 生態系統完美集成。如前文所述,您既可使用Tensorboard直觀呈現 NDCG 和 MRR 等排名指標,也可以使用這些指標選出最佳模型檢查點。待模型準備就緒,您便可使用TensorFlow Serving輕松將其部署至生產環境。若您有興趣親自試用 TF-Ranking,請查看我們的GitHub 存儲區,并瀏覽教程示例。TF-Ranking 是一個活躍的研究項目,歡迎您為我們提供反饋和貢獻。我們很高興能見證 TF-Ranking 為信息檢索和機器學習研究社區所帶來的幫助。

致謝

本項目的完成離不開 TF-Ranking 核心團隊以下成員的付出:Rama Pasumarthi、Cheng Li、Sebastian Bruch、Nadav Golbandi、Stephan Wolf、Jan Pfeifer、Rohan Anil、Marc Najork、Patrick McGregor 以及 Clemens Mewald。同時感謝 TensorFlow 團隊以下成員為我們提供建議和支持:Alexandre Passos、Mustafa Ispir、Karmel Allison、Martin Wicke 等。最后,要特別感謝我們的協作者、實習生和嘗鮮用戶:Suming Chen、Zhen Qin、Chirag Sethi、Maryam Karimzadehgan、Makoto Uchida、Yan Zhu、Qingyao A、Brandon Tran、Donald Metzler、Mike Colagrosso 以及幫助我們評估和測試 TF-Ranking 初期版本的眾多 Google 員工們。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器學習
    +關注

    關注

    66

    文章

    8425

    瀏覽量

    132771
  • 評分系統
    +關注

    關注

    0

    文章

    4

    瀏覽量

    6670

原文標題:TF-Ranking:為 Learning-to-Rank 打造的可擴展 TensorFlow 庫

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    關于 TensorFlow

    的靈活性TensorFlow 不是一個嚴格的“神經網絡”。只要你可以將你的計算表示一個數據流圖,你就可以使用Tensorflow。你來構建圖,描寫驅動計算的內部循環。我們提供了有用
    發表于 03-30 19:57

    使用 TensorFlow, 你必須明白 TensorFlow

    出的 op 的輸出, 這些返回值可以傳遞給其它 op 構造器作為輸入.TensorFlow Python 有一個默認圖 (default graph), op 構造器可以為其增加節點. 這個默認圖
    發表于 03-30 20:03

    情地使用Tensorflow吧!

    到各種計算設備完成異步并行地執行運算。TensorFlow的特征高度的靈活性TensorFlow 不是一個嚴格的“神經網絡”。只要你可以將你的計算表示一個數據流圖,你就可以使用
    發表于 07-22 10:13

    TensorFlow是什么

    Google Brain 團隊深度神經網絡(DNN)開發的功能強大的開源軟件,于 2015 年 11 月首次發布,在 Apache 2.x 協議許可下可用。截至今天,短短的兩年內,其 GitHub
    發表于 07-22 10:14

    TensorFlow教程|BibTex 引用

    ={{TensorFlow}: Large-Scale Machine Learning on Heterogeneous Systems},url={http://tensorflow.org/},note
    發表于 07-27 18:35

    TensorFlow常用Python擴展

    裝。TFlearn:TFlearn 是一個建立在 TensorFlow 之上的模塊化和透明的深度學習。它為 TensorFlow 提供更高級別的 API,以促進和加速實驗。它目前支持最近的大多數深度
    發表于 07-28 14:35

    TensorFlow優化器種類及其用法詳解

    ,但由于頻繁更新,所以損失函數值的方差會比較大。小批量梯度下降:該方法結合了前兩者的優點,利用一批訓練樣本來更新參數。TensorFlow優化器的使用首先確定想用的優化器。TensorFlow 你提供
    發表于 07-28 14:39

    基于XML的擴展圖片數據的實現方法

    從實現圖片數據擴展性的角度,分析了傳統關系型數據解決這一問題的不足之處,提出了一個基于純XML數據的解決方案。該方案使用XML格式來
    發表于 02-22 01:22 ?32次下載

    TensorFlow架構分析探討

    異構的平臺,支持多CPU/GPU,服務器,移動設備,具有良好的跨平臺的特性;TensorFlow架構靈活,能夠支持各種網絡模型,具有良好的通用性;此外,TensorFlow架構具有良好的擴展
    發表于 09-30 14:29 ?0次下載
    <b class='flag-5'>TensorFlow</b>架構分析探討

    DIMM被分為single-rank和double-rank

    作為對single-sided和double-sided的補充,DIMM還被分為single-rank和double-rank(也就是我們在內存的lable上經常能看到的1R,2R)。內存的rank
    的頭像 發表于 06-28 09:07 ?1.7w次閱讀
    DIMM被分為single-<b class='flag-5'>rank</b>和double-<b class='flag-5'>rank</b>

    TensorFlow的2.0 版本將來臨

    TensorFlow 的 contrib 模塊已經超越了單個存儲中可以維護和支持的模塊。較大的項目最好分開維護,我們將在 TensorFlow 的主代碼里添加一些規模較小的擴展。因此
    的頭像 發表于 08-15 09:01 ?5521次閱讀

    谷歌基于TensorFlow構建了全球首個產品級擴展的大規模移動端聯合學習系統

    Andrew Trask說的,是谷歌日前在arxiv貼出的論文,“Towards Federated Learning at Scale:System Design”,論文描述了前面所說的全球首個產品級擴展的聯合學習系統,以及
    的頭像 發表于 02-13 10:14 ?3855次閱讀
    谷歌基于<b class='flag-5'>TensorFlow</b>構建了全球首個產品級<b class='flag-5'>可</b><b class='flag-5'>擴展</b>的大規模移動端聯合學習系統

    tensorflow和python的關系_tensorflow與pytorch的區別

    Tensorflow和Python有什么關系?Tensorflow是Python的機器學習,Python的有很多,如Tensorflow
    的頭像 發表于 12-04 14:54 ?2w次閱讀

    TF-Ranking實現新穎的TFR-BERT架構

    基于 TensorFlow 的開源代碼,用于開發擴容的 learning-to-rank (LTR) 神經模型。當用戶期望收到有序的項目列表來輔助查詢時,該模型可以發揮出色作用。L
    的頭像 發表于 08-24 10:09 ?2828次閱讀

    TensorFlow-DirectML TensorFlow的GPU范圍擴展

    ./oschina_soft/tensorflow-directml.zip
    發表于 06-17 09:18 ?1次下載
    <b class='flag-5'>TensorFlow</b>-DirectML <b class='flag-5'>TensorFlow</b>的GPU范圍<b class='flag-5'>擴展</b>
    主站蜘蛛池模板: 亚洲一区自拍高清亚洲精品| 国产最新地址| 无码内射成人免费喷射| 久久这里只有精品无码3D| 囯产少妇BBBBBB高潮喷水一| 亚洲精品AV无码永久无码| 欧美精品九九99久久在免费线| 国产亚洲精品久久777777| xxxxxx视频| 伊人成综合网伊人222| 无码AV免费精品一区二区三区| 久亚洲AV无码专区A片| 国产在线精品亚洲观看不卡欧美| 99精彩免费观看| 在线精品国精品国产不卡| 亚洲精品第一页| 亚洲 日本 欧美 中文字幕| 色老板影视| 贤妻良母电影日本| 国产这里有精品| 91精品专区| 亚洲无线观看国产| 日韩欧美一区二区中文字幕| 看黄色片子| 伊人久久青青| 亚洲娇小性色xxxx| 午夜宅宅伦电影网中文字幕| 国产在线视精品在亚洲| 嘟嘟嘟影院免费观看视频| jyzzjyzzz视频国产在线观看| 夜夜穞狠狠穞| 亚洲视频在线免费观看| 校花在公车上被内射好舒服| 日韩精品AV一区二区三区| 欧美日韩视频一区二区三区| 美女一级毛片免费不卡视频| 久久精品热播在线看| 久久人妻少妇嫩草AV無碼| 久久久精品久久| 久久影院午夜理论片无码| 老师扒开尿口男生摸尿口|