色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

數(shù)據(jù)科學(xué)家Jeremy Howard發(fā)布了fast.ai最新的課程

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:李倩 ? 2018-09-29 09:11 ? 次閱讀

今天,數(shù)據(jù)科學(xué)家Jeremy Howard發(fā)布了fast.ai最新的(也是最全面的)課程:Introduction to Machine Learning for Coders。這門(mén)課程在舊金山大學(xué)中錄制,是數(shù)據(jù)科學(xué)研究生課程的一部分,涵蓋了目前機(jī)器學(xué)習(xí)中最重要的使用基礎(chǔ)。其中共有12節(jié)課,每節(jié)課大約2小時(shí)。課程要求你有至少一年的編程經(jīng)驗(yàn),以及高中數(shù)學(xué)基礎(chǔ)。以下是論智對(duì)課程內(nèi)容的大致編譯:

現(xiàn)在網(wǎng)上有很多優(yōu)秀的機(jī)器學(xué)習(xí)課程了,最出名的Andrew Ng的Coursera課程。但是由于課程推出的時(shí)間較早,有些過(guò)時(shí),因?yàn)槠渲杏玫降氖?a href="http://m.1cnz.cn/tags/matlab/" target="_blank">Matlab。而我們這次的新課程使用的是現(xiàn)在流行的工具和庫(kù),例如Python、pandas、scikit-learn和PyTorch。與很多領(lǐng)域中的教育資料不同,我們的方法是“編程為先”而不是“數(shù)學(xué)為先”。這很適合每天編寫(xiě)代碼的人,但可能不會(huì)過(guò)多地練習(xí)數(shù)學(xué)知識(shí)(我們會(huì)在必要的時(shí)候穿插講解數(shù)學(xué))。更重要的是,這項(xiàng)課程非常“個(gè)性化”,我們并不會(huì)講到各種類(lèi)型的模型,只是關(guān)注在實(shí)踐中真正有用的東西。

在課程中,我們會(huì)講到兩種主要類(lèi)型的模型:基于決策樹(shù)的模型(尤其是經(jīng)過(guò)bagging的決策數(shù)森林),以及基于梯度下降的模型(邏輯回歸和它的變體)。決策樹(shù)模型搭建的結(jié)構(gòu)如下圖所示(實(shí)際工作中你可能會(huì)用到比這更大的樹(shù)):

Terence Parr教授和Prince Grover關(guān)于決策樹(shù)可視化技術(shù)的研究,利用了他最新的animl可視化庫(kù)

決策樹(shù)方法非常靈活易用,用bagging和boosting結(jié)合后,可以在很多實(shí)用任務(wù)上運(yùn)用。但是,當(dāng)它們用到訓(xùn)練之外的數(shù)據(jù)上時(shí),可能有些困難,而且在圖像、音頻、自然語(yǔ)言等類(lèi)型的數(shù)據(jù)上會(huì)表現(xiàn)得不太精確。這些問(wèn)題通常都能用梯度下降的方法解決,這些會(huì)在我們課程的下半部分講到,然后簡(jiǎn)單地講些深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的知識(shí)作為結(jié)尾。(如果你曾經(jīng)上過(guò)我們的Practical Deep Learning for Coders的課程,可能會(huì)覺(jué)得有些地方概念有重合,但是我們教授的方法是不同的)

你將學(xué)會(huì)如何從零開(kāi)始創(chuàng)建完整的決策樹(shù)森林,并編寫(xiě)自己的深度學(xué)習(xí)模型,從零開(kāi)始訓(xùn)練。在這一過(guò)程中,你會(huì)學(xué)到很多有關(guān)數(shù)據(jù)處理、模型測(cè)試和產(chǎn)品開(kāi)發(fā)的技巧(包括有關(guān)數(shù)據(jù)產(chǎn)品的道德問(wèn)題)。

下面是對(duì)每節(jié)課程的簡(jiǎn)要介紹。

Lesson 1—Introduction to Random Forests

第一課將向同學(xué)們展示如何創(chuàng)建一個(gè)隨機(jī)森林,隨機(jī)森林也許是應(yīng)用最廣泛的機(jī)器學(xué)習(xí)模型了,其中會(huì)以Kaggle競(jìng)賽中的Bull Book for Bulldozers項(xiàng)目為例,用隨機(jī)森林創(chuàng)造出解決方案,結(jié)果可以達(dá)到Kaggle排行榜的前25%。你將學(xué)到如何用Jupyter Notebook創(chuàng)建并分析模型,如何下載數(shù)據(jù),以及其他可能在實(shí)踐中用到的機(jī)器學(xué)習(xí)基礎(chǔ)技巧。

Lesson 2—Random Forest Deep Dive

這節(jié)課我們將學(xué)習(xí)尺度(metrics)、損失函數(shù)和過(guò)度擬合(這可能是最重要的機(jī)器學(xué)習(xí)概念)。我們會(huì)討論如何用驗(yàn)證集和測(cè)試集幫助我們衡量過(guò)度擬合。

之后,我們講學(xué)習(xí)隨機(jī)森林是如何運(yùn)行的。首先,觀察組成森林的每個(gè)決策樹(shù),然后學(xué)習(xí)“bagging”。之后,我們會(huì)學(xué)習(xí)一些能讓隨機(jī)森林更快更精確的有用的技術(shù)。

Lesson 3—Performance,Validation and Model Interpretation

這節(jié)課我們會(huì)講到如何讀取更大的數(shù)據(jù)集,這個(gè)數(shù)據(jù)集可能都無(wú)法在你機(jī)器上的RAM中讀取。之后,我們還會(huì)學(xué)習(xí)如何從該數(shù)據(jù)集中創(chuàng)建一個(gè)隨機(jī)森林。之后,還會(huì)講到軟件工程中的“profiling”的概念,學(xué)習(xí)如何加速代碼,尤其是在處理大型數(shù)據(jù)集時(shí)。

接著,我們會(huì)進(jìn)一步研究驗(yàn)證集,講解如何創(chuàng)建好的驗(yàn)證集,之后會(huì)從新的數(shù)據(jù)集中按此標(biāo)準(zhǔn)選擇好的驗(yàn)證集。

在這節(jié)課的后半部分,我們會(huì)講到“模型的可解釋性”——這是用模型理解數(shù)據(jù)的重要技巧。這里研究可解釋性主要是看“特征重要性曲線(xiàn)”,這是該話(huà)題下重要的技術(shù)。

Lesson 4—Feature Importance,Tree Interpreter

這節(jié)課,我們會(huì)深入講解特征重要性,其中會(huì)講到如何才能讓重要性曲線(xiàn)含有更豐富信息的多種方法,如何用它們?nèi)バ拚愕奶卣骺臻g,以及用樹(shù)狀圖理解特征關(guān)系。

在本節(jié)課的后半部分,我們會(huì)學(xué)到兩種重要的解釋技術(shù):部分依賴(lài)圖和樹(shù)形解釋圖。

Lesson 5—Extrapolation and RF from Scratch

這節(jié)課會(huì)學(xué)習(xí)“樹(shù)解釋器(tree interpreter)”,包括用“瀑布圖”分析輸出。下一步,我們會(huì)解釋外推法(extrapolation)的重要概念,這是隨機(jī)森林的一個(gè)弱點(diǎn),它無(wú)法預(yù)測(cè)輸入數(shù)據(jù)范圍之外的值。我們研究了如何能確定這一問(wèn)題的方法,以及如何應(yīng)對(duì)。

在這節(jié)課的后半部分,我們會(huì)開(kāi)始編寫(xiě)自己的隨機(jī)森林。

Lesson 6—Data Products

在課程的前半部分,我們會(huì)學(xué)習(xí)如何用機(jī)器學(xué)習(xí)模型創(chuàng)建數(shù)據(jù)產(chǎn)品(data products),基于“The Drivetrain Method”。

接下來(lái),我們會(huì)更深入地探究外推問(wèn)題,順便會(huì)學(xué)習(xí)幾個(gè)numpy技巧。

Lesson 7—Introduction to Random Forest

這時(shí)我們就要結(jié)束對(duì)隨機(jī)森林的介紹了,同時(shí)我們還會(huì)簡(jiǎn)單介紹“cython”庫(kù),用它對(duì)Python代碼稍加改造,就能得到和C代碼一樣的速度。

之后,我們會(huì)進(jìn)入到下一階段——基于梯度下降的方法,例如神經(jīng)網(wǎng)絡(luò)和邏輯回歸。

Lesson 8—Gradient Descent and Logistic Regression

繼續(xù)梯度下降的課程,首先我們會(huì)用PyTorch幫助我們從零開(kāi)始應(yīng)用邏輯回歸,我們會(huì)建立一個(gè)針對(duì)經(jīng)典手寫(xiě)數(shù)字的MNIST數(shù)據(jù)集的模型。

Lesson 9—Regularization,Learning Rates and NLP

這節(jié)課繼續(xù)建立邏輯回歸模型,并且我們?cè)谄渲性黾恿酥匾奶卣鳎赫齽t化。這里會(huì)學(xué)習(xí)L1和L2正則化,以及如何運(yùn)用它們。同時(shí),我們還會(huì)講到學(xué)習(xí)率的問(wèn)題,如何為你的問(wèn)題選擇學(xué)習(xí)率。

在本節(jié)課的后半部分,我們會(huì)討論自然語(yǔ)言的處理。我們會(huì)對(duì)流行的IMDb文本數(shù)據(jù)集建立詞袋表示,用稀疏矩陣保證良好的性能和內(nèi)存使用。從中我們建立了多個(gè)模型,包括樸素貝葉斯和邏輯回歸,同時(shí)還會(huì)向其中添加ngram特征提高性能。

Lesson 10—More NLP,and Columnar Data

這節(jié)課程會(huì)繼續(xù)創(chuàng)建NLP模型,其中結(jié)合了樸素貝葉斯和邏輯回歸,得出混合的“NB-SVM”模型,它是文本分類(lèi)的最強(qiáng)基準(zhǔn)模型。為了完成這項(xiàng)任務(wù),我們?cè)赑yTorch中創(chuàng)建了一個(gè)新的類(lèi)別:nn.Module。

在這節(jié)課的后半部分,我們開(kāi)始用深度學(xué)習(xí)研究表格和關(guān)系數(shù)據(jù),借助Kaggle競(jìng)賽中的Rossmann數(shù)據(jù)集。并且開(kāi)始在這個(gè)數(shù)據(jù)集上研究特征工程。我們會(huì)學(xué)習(xí)連續(xù)變量和分分類(lèi)變量,以及那種特征工程可以完成這些變量。

Lesson 11—Embeddings

首先我們會(huì)講解樸素貝葉斯背后的數(shù)學(xué)原理,然后深入研究嵌入,二者都是用于分類(lèi)變量和表格數(shù)據(jù),也可以用于NLP中的文字。

Lesson 12—Complete Rossmann,Ethical Issues

在課程的前半部分,我們會(huì)把所學(xué)到的所有內(nèi)容進(jìn)行結(jié)合,創(chuàng)造一個(gè)針對(duì)Rossmann數(shù)據(jù)集的全面模型,包括分類(lèi)特征和連續(xù)特征,以及各種類(lèi)別的特征工程。

下半部分,我們會(huì)提到在機(jī)器學(xué)習(xí)模型的運(yùn)用過(guò)程中可能出現(xiàn)的一些道德問(wèn)題,以及為什么機(jī)器學(xué)習(xí)從業(yè)者應(yīng)該有所警覺(jué),如何解決他們。很多學(xué)生表示,這是這次課程最重要的部分!

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:新課上線(xiàn):fast.ai推出針對(duì)程序員的機(jī)器學(xué)習(xí)課程

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    2018全球Top 1000 計(jì)算機(jī)科學(xué)家,29位中國(guó)科學(xué)家上榜

    Guide2Research網(wǎng)站日前發(fā)布2018年全球計(jì)算機(jī)科學(xué)和電子領(lǐng)域H-index排名前1000的科學(xué)家
    的頭像 發(fā)表于 07-05 08:51 ?1.3w次閱讀
    2018全球Top 1000 計(jì)算機(jī)<b class='flag-5'>科學(xué)家</b>,29位中國(guó)<b class='flag-5'>科學(xué)家</b>上榜

    AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感

    了傳統(tǒng)學(xué)科界限,使得科學(xué)家們能夠從更加全面和深入的角度理解生命的奧秘。同時(shí),AI技術(shù)的引入也催生了一種全新的科學(xué)研究范式,即數(shù)據(jù)驅(qū)動(dòng)的研究范式,這種范式強(qiáng)調(diào)從大量
    發(fā)表于 10-14 09:21

    TI科學(xué)家談浮點(diǎn)DSP未來(lái)發(fā)展

    TI科學(xué)家談浮點(diǎn)DSP未來(lái)發(fā)展 自十多年前浮點(diǎn)數(shù)字信號(hào)處理器(DSP)誕生以來(lái),便為實(shí)時(shí)信號(hào)處理提供算術(shù)上更為先進(jìn)的備選方案。不過(guò),定點(diǎn)器件至今仍是業(yè)界的主流--當(dāng)然低成本是主要原因。定點(diǎn)DSP每
    發(fā)表于 11-03 15:18

    AI人才炙手可熱 數(shù)據(jù)科學(xué)家和機(jī)器學(xué)習(xí)工程師出現(xiàn)大缺口

    Culbertson說(shuō)數(shù)據(jù)科學(xué)家是最熱門(mén)的AI職缺,AI需要輸入大量的高品質(zhì)數(shù)據(jù),才能發(fā)揮效用,數(shù)據(jù)
    發(fā)表于 03-03 11:13 ?1043次閱讀

    通往數(shù)據(jù)科學(xué)家的崎嶇道路

    如果你曾經(jīng)查看過(guò)數(shù)據(jù)科學(xué)家的崗位要求,你就知道它的職責(zé)范圍有多廣。有的數(shù)據(jù)科學(xué)家致力于自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí),有的則從事A/B測(cè)試、產(chǎn)品分析。確定哪些工作適合自己,哪些不適
    的頭像 發(fā)表于 07-26 09:17 ?2587次閱讀

    fast.ai發(fā)布的一個(gè)簡(jiǎn)便、好用的PyTorch庫(kù)

    Christine McLeavey Payne是從上一期Fast.ai深度學(xué)習(xí)課程中脫穎而出的一名學(xué)生。她的人生經(jīng)歷非常豐富:從舊金山交響樂(lè)團(tuán)的古典鋼琴師,到金融領(lǐng)域的HPC專(zhuān)家,再到斯坦福大學(xué)
    的頭像 發(fā)表于 10-10 09:20 ?4710次閱讀

    哪些才是對(duì)數(shù)據(jù)科學(xué)家最迫切的技能呢?

    AngelList提供的是列出數(shù)據(jù)科學(xué)家崗位的公司數(shù)而不是崗位數(shù)。我把AngelList從所有分析里面排除掉了,因?yàn)槠渌阉魉惴ㄋ坪醢凑誒R型的邏輯搜索進(jìn)行,沒(méi)有辦法改成AND。如果你尋找的是“數(shù)據(jù)
    的頭像 發(fā)表于 11-19 18:14 ?3073次閱讀

    fast.ai更新新版本的針對(duì)開(kāi)發(fā)者的深度學(xué)習(xí)實(shí)踐課程

    框架:fast.ai使用Pytorch作用教學(xué)工具。但是這種東西屬于一通百通,基本上你一旦掌握套路,接下來(lái)用TensorFlow/Keras、CNTX、MXNet或者其他深度學(xué)習(xí)庫(kù)都不成大問(wèn)題。
    的頭像 發(fā)表于 01-28 08:59 ?2398次閱讀
    <b class='flag-5'>fast.ai</b>更新<b class='flag-5'>了</b>新版本的針對(duì)開(kāi)發(fā)者的深度學(xué)習(xí)實(shí)踐<b class='flag-5'>課程</b>

    什么是數(shù)據(jù)科學(xué)家?需要認(rèn)證嗎?

    得以清晰化。”Fleming指出,IBM目前雇傭大約1.5萬(wàn)名被定義為數(shù)據(jù)科學(xué)家的技術(shù)人員,預(yù)計(jì)數(shù)據(jù)科學(xué)家人數(shù)的增長(zhǎng)速度超過(guò)其雇員總數(shù)的增
    的頭像 發(fā)表于 02-14 09:41 ?6624次閱讀

    數(shù)據(jù)科學(xué)家與機(jī)器學(xué)習(xí)工程師怎么區(qū)分

    十年來(lái),我們一直在談?wù)?b class='flag-5'>數(shù)據(jù)科學(xué)數(shù)據(jù)科學(xué)家。雖然在怎么才叫“數(shù)據(jù)科學(xué)家”的問(wèn)題上始終存在著爭(zhēng)議,
    的頭像 發(fā)表于 05-18 11:24 ?3241次閱讀

    采訪(fǎng)資深數(shù)據(jù)科學(xué)家:成為數(shù)據(jù)科學(xué)家應(yīng)具有的品質(zhì)

    作為一門(mén)逐漸成熟的新興領(lǐng)域,與數(shù)據(jù)科學(xué)相關(guān)的很多領(lǐng)域開(kāi)始變得備受青睞,比如數(shù)據(jù)工程,數(shù)據(jù)分析以及機(jī)器學(xué)習(xí)和深度學(xué)習(xí)。數(shù)據(jù)
    的頭像 發(fā)表于 06-30 11:28 ?2330次閱讀

    什么是數(shù)據(jù)科學(xué)家的最佳編程語(yǔ)言?

    每個(gè)數(shù)據(jù)科學(xué)學(xué)習(xí)者都最常問(wèn)的問(wèn)題:“ 什么是數(shù)據(jù)科學(xué)家的最佳編程語(yǔ)言?”。
    的頭像 發(fā)表于 07-05 11:32 ?2524次閱讀

    AI武器是怎么殺死伊朗核科學(xué)家

    通過(guò)衛(wèi)星對(duì)機(jī)槍進(jìn)行遙控,加之AI的人臉識(shí)別鎖定目標(biāo),便可以殺人于精確、隱秘且無(wú)形。沒(méi)錯(cuò),這就是11月27日發(fā)生在伊朗阿布沙德鎮(zhèn)上,真實(shí)的一幕。據(jù)外媒BBC報(bào)道,被殺害的是一名伊朗核科學(xué)家。而伊朗革命衛(wèi)隊(duì)副司令最新曝出的消息,這名科學(xué)家
    的頭像 發(fā)表于 12-18 12:07 ?2071次閱讀

    中國(guó) “天眼”FAST 向全世界科學(xué)家開(kāi)放

    據(jù)央視軍事,2020 年 12 月初,美國(guó)的大型射電望遠(yuǎn)鏡坍塌后,位于中國(guó)貴州省平塘縣的射電望遠(yuǎn)鏡成為了全球唯一的 “天眼”。同時(shí),我國(guó)宣布 “天眼”將從 2021 年起向全世界科學(xué)家開(kāi)放
    的頭像 發(fā)表于 01-04 16:17 ?2985次閱讀

    中國(guó)聯(lián)通AI科學(xué)家廉士國(guó)入選全球前2%頂尖科學(xué)家榜單

    “ ?近日,美國(guó)斯坦福大學(xué)發(fā)布本年度全球前2%頂尖科學(xué)家榜單,中國(guó)聯(lián)通下轄聯(lián)通數(shù)字科技有限公司首席AI科學(xué)家廉士國(guó)博士入選全球前2%頂尖科學(xué)家
    的頭像 發(fā)表于 11-07 16:18 ?2705次閱讀
    主站蜘蛛池模板: 爽爽影院线观看免费| 国产乱对白精彩在线播放| 动漫美女无衣| 久草草在线视视频| 色一情一乱一伦一区二区三区| 又紧又大又爽精品一区二区| 公交车被CAO到合不拢腿| 老师扒开尿口男生摸尿口| 台湾佬休闲中性娱乐网| 57PAO强力打造高清免费| 国产女人与黑人在线播放| 暖暖日本在线手机免费完整版 | 久草精品在线| 天堂网久久| YELLOW视频直播在线观看| 久久香蕉国产线看观看首页| 性VIDEOSTV另类极品| 波野结衣qvod| 男女生爽爽爽视频免费观看| 亚洲视频在线观看网站| 国产精品第十页| 日本高清无卡码一区二区久久 | 丰满的女友1在线观看| 嗯啊…跟校草在教室里做h| 亚洲伊人精品| 国产剧情麻豆mv| 日韩影院久久| MD传媒MD0021在线观看| 美女伊人网| 又大又硬又爽免费视频| 国产永不无码精品AV永久| 牲高潮99爽久久久久777| xxxxx中国明星18| 男人大臿蕉香蕉大视频| 自拍区偷拍亚洲视频| 精品国产午夜肉伦伦影院| 亚洲2017天堂色无码| 国产精品亚洲精品久久国语| 日日踫夜夜爽无码久久| 草比比过程图| 青草国产超碰人人添人人碱|