色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

OpenAI要為GPT-4解決數學問題了:獎勵模型指錯,解題水平達到新高度

智能感知與物聯網技術研究所 ? 來源:未知 ? 2023-06-06 11:00 ? 次閱讀

對于具有挑戰性的 step-by-step 數學推理問題,是在每一步給予獎勵還是在最后給予單個獎勵更有效呢?OpenAI最新研究給出了他們的答案。

現在,大語言模型迎來了「無所不能」的時代,其中在執行復雜多步推理方面的能力也有了很大提高。不過,即使是最先進的大模型也會產生邏輯錯誤,通常稱為幻覺。因此,減輕幻覺是構建對齊 AGI 的關鍵一步。


為了訓練更可靠的模型,目前可以選擇兩種不同的方法來訓練獎勵模型,一種是結果監督,另一種是過程監督。結果監督獎勵模型(ORMs)僅使用模型思維鏈的最終結果來訓練,而過程監督獎勵模型(PRMs)則接受思維鏈中每個步驟的獎勵。


考慮到訓練可靠模型的重要性以及人工反饋的高成本,仔細比較結果監督與過程監督非常重要。雖然最近的工作已經開展了這種比較,但仍然存在很多問題。


在本文中,OpenAI 進行了調研,結果發現在訓練模型解決 MATH 數據集的問題時,過程監督顯著優于結果監督。OpenAI 使用自己的 PRM 模型解決了 MATH 測試集中代表性子集的 78% 的問題。


此外為了支持相關研究,OpenAI 還開源了 PRM800K,它是一個包含 800K 個步級人類反饋標簽的完整數據集,用于訓練它們的最佳獎勵模型。



如下為一個真正(True positive)的問答示例。該問題以及 OpenAI 列舉的其他問題示例均來自 GPT-4。這個具有挑戰性的三角學問題需要并不明顯地連續應用多個恒等式。大多數解決方案嘗試都失敗了,因為很難知道哪些恒等式實際上有用。盡管 GPT-4 通常無法解決這個問題(正確率僅為 0.1% ),但本文的獎勵模型正確地識別出了這個解決方案是有效的。



再看一個假正(False positive)的問答示例。在第四步中,GPT-4 錯誤地聲稱該序列每 12 個項重復一次,而實際上是每 10 個項重復一次。這種計數錯誤偶爾會愚弄獎勵模型。



論文作者之一、OpenAI Alignment 團隊負責人 Jan Leike 表示,「使用 LLM 做數學題的真正有趣結果是:監督每一步比只檢查答案更有效。」



英偉達 AI 科學家 Jim Fan 認為,「這篇論文的觀點很簡單:對于挑戰性的逐步問題,要在每一步給予獎勵,而不要在最后給予單個獎勵。從根本上來說,密集獎勵信號>稀疏。」



我們接下來細看 OpenAI 這篇論文的方法和結果。



論文地址:https://cdn.openai.com/improving-mathematical-reasoning-with-process-supervision/Lets_Verify_Step_by_Step.pdf

數據集地址:https://github.com/openai/prm800k


方法概覽


該研究按照與 Uesato et al. (2022) 類似的方法對結果監督和過程監督進行了比較。值得注意的是這項研究無需人工即可提供結果監督,因為 MATH 數據集中的所有問題都有可自動檢查的答案。相比之下,沒有簡單的方法來自動化過程監督。該研究依靠人類數據標記者來提供過程監督,具體來說是需要人工標記模型生成的解決方案中每個步驟的正確性。該研究在大規模和小規模兩種情況下分別進行了實驗。


范圍


對于每種模型規模,該研究都使用一個固定模型來生成所有解決方案。這個模型被稱為生成器,OpenAI 表示不會通過強化學習 (RL) 來改進生成器。


基礎模型


所有大型模型均是基于 GPT-4 模型進行微調得來的。該研究還添加了一個額外的預訓練步驟 —— 在含有約 1.5B 數學相關 token 的數據集 MathMix 上微調所有模型。與 Lewkowycz et al. (2022) 類似,OpenAI 的研究團隊發現這種方法可以提高模型的數學推理能力。


生成器


為了更容易解析單個步驟,該研究訓練生成器在生成解決方案時,步驟之間用換行符分隔。具體來說,該研究對 MATH 訓練問題使用少樣本生成解決方案,過濾出得到最終正確答案的解決方案,并在該數據集上對基礎模型進行一個 epoch 的微調。


數據采集


為了收集過程監督數據,該研究向人類數據標記者展示了大規模生成器采樣的數學問題的逐步解決方案。人類數據標記者的任務是為解決方案中的每個步驟分配正面、負面或中性標簽,如下圖 1 所示。



該研究只標記大型生成器生成的解決方案,以最大限度地發揮有限的人工數據資源的價值。該研究將收集到的按步驟標記的整個數據集稱為 PRM800K。PRM800K 訓練集包含 800K 步驟標簽,涵蓋 12K 問題的 75K 解決方案。為了最大限度地減少過擬合,PRM800K 訓練集包含來自 MATH 的 4.5K 測試問題數據,并僅在剩余的 500 個 MATH 測試問題上評估模型。


結果監督獎勵模型 (ORM)


該研究按照與 Cobbe et al. (2021) 類似的方法訓練 ORM,并從生成器中為每個問題采樣固定數量的解決方案,然后訓練 ORM 來預測每個解決方案的正確與否。實踐中,自動檢查最終答案來確定正確性是一種常用的方法,但原則上由人工標記者來提供標簽。在測試時,該研究使用 ORM 在最終 token 處的預測作為每個解決方案的總分。


過程監督獎勵模型(PRM)


PRM 用來預測每個步驟(step)中最后一個 token 之后的步驟的正確性。這種預測采用單個 token 形式,并且 OpenAI 在訓練過程中最大化這些目標 token 的對數似然。因此,PRM 可以在標準的語言模型 pipeline 中進行訓練,無需任何特殊的適應措施。


圖 2 為同一個問題的 2 種解決方案,左邊的答案是正確的,右邊的答案是錯誤的。綠色背景表示 PRM 得分高,紅色背景表示 PRM 得分低。PRM 可以正確識別錯誤解決方案中的錯誤。



在進行過程監督時,OpenAI 有意選擇僅對第一個錯誤步驟進行監督,從而使得結果監督和過程監督之間的比較更加直接。對于正確的解決方案,兩種方法提供的信息相同,因為每一步都是正確的解題方法。對于錯誤的解決方案,兩種方法都能揭示至少存在一個錯誤,并且過程監督還揭示了該錯誤的確切位置。


大規模監督


OpenAI 使用全流程監督數據集 PRM800K 來訓練 PRM,為了使 ORM 基準更加強大,OpenAI 還為每個問題進行了 100 個樣本的訓練,這些樣本均來自生成器,由此 ORM 訓練集與 PRM800K 沒有重疊樣本。


下圖為結果監督和過程監督獎勵模型以及投票方案的比較,結果表明在搜索模型生成的解決方案時,PRM 比 ORM 和多數投票更有效。



小規模綜合監督


為了更好的比較結果監督和過程監督,首先需要注意的是 ORM 和 PRM 的訓練集不具有直接可比性,PRM 訓練集是使用主動學習構建的,偏向于答案錯誤的解決方案,還比 ORM 訓練集少一個數量級。


過程監督 VS 結果監督


首先 OpenAI 從小規模生成器中為每個問題采樣 1 到 200 個解決方案。對于每個數據集,OpenAI 提供三種形式的監督:來自 PRM_large 的過程監督,來自 PRM_large 的結果監督以及來自最終答案檢查的結果監督。


圖 4a 表明,過程監督明顯優于其他兩種形式的結果監督;圖 4b 表明,使用 PRM_large 進行結果監督明顯比最終答案檢查的結果監督更有效。



OOD 泛化


為了衡量模型在分布外(OOD)泛化的性能,OpenAI 對大規模 ORM 和 PRM 在一個由 224 個 STEM 問題組成的 held-out(留出法)上進行評估,這些問題來自最新的 AP 物理(美國大學先修課程簡稱 AP)、AP 微積分、AP 化學、AMC10(理解為數學競賽)和 AMC12 考試,模型沒有見過這些問題。表格 1 中報告了 ORM、PRM 和多數投票的前 100 個的最佳表現。表明,PRM 的性能優于 ORM 和多數投票,同時意味著 PRM 在新的測試問題上性能仍然保持不變。



原文標題:OpenAI要為GPT-4解決數學問題了:獎勵模型指錯,解題水平達到新高度

文章出處:【微信公眾號:智能感知與物聯網技術研究所】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 物聯網
    +關注

    關注

    2909

    文章

    44704

    瀏覽量

    374131

原文標題:OpenAI要為GPT-4解決數學問題了:獎勵模型指錯,解題水平達到新高度

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯網技術研究所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    OpenAI揭秘CriticGPT:GPT自進化新篇章,RLHF助力突破人類能力邊界

    OpenAI近期震撼發布了一項革命性成果——CriticGPT,一個基于GPT-4深度優化的新型模型,其獨特之處在于能夠自我提升,助力未來GPT模型
    的頭像 發表于 07-02 10:19 ?794次閱讀

    OpenAI推出新模型CriticGPT,用GPT-4自我糾錯

    基于GPT-4模型——CriticGPT,這款模型專為捕獲ChatGPT代碼輸出中的錯誤而設計,其獨特的作用在于,讓人們能夠用GPT-4來查找GP
    的頭像 發表于 06-29 09:55 ?553次閱讀

    OpenAI API Key獲取:開發人員申請GPT-4 API Key教程

    ? OpenAIGPT-4模型因其卓越的自然語言理解和生成能力,成為了許多開發者的首選工具。獲取GPT-4 API Key并將其應用于項目,如開發一個ChatGPT聊天應用,不僅是實
    的頭像 發表于 06-24 17:40 ?2407次閱讀
    <b class='flag-5'>OpenAI</b> API Key獲取:開發人員申請<b class='flag-5'>GPT-4</b> API Key教程

    開發者如何調用OpenAIGPT-4o API以及價格詳情指南

    ?目前,OpenAI模型GPT-4o和GPT-4 Turbo的價格如下: GPT-4o 對比 GPT-
    的頭像 發表于 05-29 16:00 ?1.2w次閱讀
    開發者如何調用<b class='flag-5'>OpenAI</b>的<b class='flag-5'>GPT-4</b>o API以及價格詳情指南

    GPT-4人工智能模型預測公司未來盈利勝過人類分析師

    據悉,本次研究中,研究人員僅向GPT-4提供了匿名的財務數據,包括資產負債表和損益表,并要求其預測未來盈利增長。盡管未獲得其他信息,GPT-4仍能達到60%的準確度,遠超人類分析師的平均水平
    的頭像 發表于 05-27 16:41 ?609次閱讀

    OpenAI發布全新GPT-4o模型

    近日,OpenAI宣布推出全新的GPT-4o模型,標志著人工智能領域的一大技術飛躍。這款模型不僅具備強大的生成能力,還能精準理解用戶意圖,提供智能化的回答。
    的頭像 發表于 05-17 11:48 ?663次閱讀

    OpenAI推出面向所有用戶的AI模型GPT-4o

    在周一的直播盛會上,OpenAI揭開了其最新的人工智能模型GPT-4o的神秘面紗。這款新模型旨在為其著名的聊天機器人ChatGPT提供更強大、更經濟的支持。
    的頭像 發表于 05-15 09:23 ?406次閱讀

    OpenAI全新GPT-4o能力炸場!速度快/成本低,能讀懂人類情緒

    ”的意思。GPT-4o文本、推理、編碼能力達到GPT-4 Turbo水平,速度是上一代AI大模型GPT-
    的頭像 發表于 05-15 00:15 ?7847次閱讀

    OpenAI發布GPT-4o模型,供全體用戶免費使用

    OpenAI首席技術官穆里·穆拉蒂(Muri Murati)指出,GPT-4o具備與GPT-4相同的智能水平,且在文本、圖像及語音處理方面有顯著進步。
    的頭像 發表于 05-14 11:17 ?518次閱讀

    OpenAI計劃宣布ChatGPT和GPT-4更新

    人工智能領域的領軍企業OpenAI近日宣布,將于5月13日進行一場產品更新直播,屆時將揭曉ChatGPT和GPT-4的新進展。這一消息立即引發了外界對OpenAI下一項重大技術發布的廣泛猜測和期待。
    的頭像 發表于 05-13 11:06 ?597次閱讀

    OpenAI設立日本辦事處,研發日文版GPT-4

    此外,OpenAI 還計劃推出適用于日語環境的 GPT-4 定制版模型。據悉,該模型在處理日文文本時表現更為出色,運行速度最高可提升至三倍;同時,其在翻譯和總結日語文本方面的性能和性價
    的頭像 發表于 04-15 16:04 ?493次閱讀

    OpenAI推出Vision模型GPT-4 Turbo,融合文本與圖像理解

    據悉,此模型沿用GPT-4 Turbo系列特有的12.8萬token窗口規模及截至2023年12月的知識庫架構,其創新亮點則是強大的視覺理解功能。
    的頭像 發表于 04-10 10:49 ?417次閱讀

    微軟Copilot全面更新為OpenAIGPT-4 Turbo模型

    起初,Copilot作為Bing Chat AI助手推出,初期采用GPT-3.5模型,隨后升級至GPT-4取得顯著進步,如今再次更新至性能卓越的GPT-4 Turbo
    的頭像 發表于 03-13 13:42 ?743次閱讀

    OpenAI推出ChatGPT新功能:朗讀,支持37種語言,兼容GPT-4GPT-3

    據悉,“朗讀”功能支持37種語言,且能夠自主識別文本類型并對應相應的發音。值得關注的是,該功能對GPT-4以及GPT-3.5版本的ChatGPT均適用。此舉彰顯了OpenAI致力于“多模態交互”(multimodal capab
    的頭像 發表于 03-05 15:48 ?950次閱讀

    全球最強大模型易主,GPT-4被超越

    近日,AI領域的領軍企業Anthropic宣布推出全新的Claude 3系列模型,其中包括最強版Claude 3 Opus。據該公司稱,Claude 3系列在推理、數學、編碼、多語言理解和視覺方面全面超越了包括GPT-4在內的所
    的頭像 發表于 03-05 09:58 ?670次閱讀
    主站蜘蛛池模板: 国产啪精品视频网免费| 免费在线a| 三级黄色在线| 国产精品自在在线午夜蜜芽tv在线 | 黄色a三级三级三级免费看| 一二三四在线视频社区| 美女张开腿露尿口给男人亲| yellow高清免费观看日本| 午夜伦伦电影理论片大片| 久久99精国产一区二区三区四区| 999久久久国产| 污文乖不疼的| 免费国产成人| 国产三级在线精品男人的天堂| 一级做a爰片久久毛片一| 琪琪see色原网色原网站| 国产在线观看免费| a视频在线看| 亚洲精品久久久午夜福利电影网| 免费观看99热只有精品| 国产精品ⅴ视频免费观看| 在线中文字幕视频| 视频在线观看高清免费看| 久久青草免费91线频观看站街| music radio在线收听| 亚洲精品久久午夜麻豆| 人妻中文字幕无码系列| 久久99精品国产麻豆婷婷| 俄罗斯17vidio| 18 japanese宾馆直播| 羞羞漫画视频| 人淫阁| 美女屁股软件| 极品少妇高潮啪啪无码吴梦 | 芒果视频看片在线观看| 国产色婷婷亚洲99麻豆| 办公室中文BD| 最近2019中文字幕免费版视频| 午夜福利自怕| 人与禽物videos另类| 麻豆E奶女教师国产精品|