今天我們來討論當(dāng)下最熱門的神經(jīng)網(wǎng)絡(luò),現(xiàn)在深度學(xué)習(xí)炒的非常火,其實本質(zhì)還是把神經(jīng)網(wǎng)絡(luò)算法進(jìn)行了延伸和優(yōu)化!咱們這回的目標(biāo)就直入主題用最簡單的語言讓大家清楚神經(jīng)網(wǎng)絡(luò)究竟是個什么東西。關(guān)于神經(jīng)網(wǎng)絡(luò)與人工智能的發(fā)展,以及神經(jīng)網(wǎng)絡(luò)各種生物學(xué)模型咱們就不嘮了,我是覺得把神經(jīng)網(wǎng)絡(luò)比作各種類人腦模型和生物學(xué)模型沒有半點助于咱們理解,反而把簡單的問題復(fù)雜了,這些恩怨情仇咱們就不過多介紹了!
這張圖就是我們的核心了,也是整個神經(jīng)網(wǎng)絡(luò)的架構(gòu),只要能理解這個,那就OK了!首先我們來觀察整個結(jié)構(gòu),發(fā)現(xiàn)在神經(jīng)網(wǎng)絡(luò)中是存在多個層的,有輸入層,隱層1,隱層2,輸出層。那么我們想要得到一個合適的結(jié)果,就必須通過這么多層得到最終的結(jié)果,在這里咱們先來考慮一個問題,神經(jīng)網(wǎng)絡(luò)究竟做了一件什么事?
如果你想做一個貓狗識別,大家首先想到了神經(jīng)網(wǎng)絡(luò),那它是怎么做的呢?先來想想咱們?nèi)祟愂窃趺捶直娴模遣皇歉鶕?jù)貓和狗的特征是不一樣的,所以我們可以很輕松就知道什么事貓什么是狗。既然這樣,神經(jīng)網(wǎng)絡(luò)要做的事跟咱們一樣,它也需要知道貓的特征是什么,狗的特征是什么,這么多的層次結(jié)構(gòu)其實就做了一件事,進(jìn)行特征提取,我們希望網(wǎng)絡(luò)結(jié)構(gòu)能更好的識別出來我們想要的結(jié)果,那勢必需要它們能提取處最合適的特征,所以神經(jīng)網(wǎng)絡(luò)的強(qiáng)大之處就在于它可以幫助我們更好的選擇出最恰當(dāng)?shù)奶卣鳌?/p>
在第一張圖中我們定義了多層的結(jié)構(gòu),在這里有一個概念叫做神經(jīng)元,那么神經(jīng)元真的存在嗎?像大腦一樣?其實就是一個權(quán)重參數(shù)矩陣,比如你有一個輸入數(shù)據(jù)。它是由3個特征組成的,我們就說輸入是一個batchsize*3的矩陣,(batchsieze是一次輸入的數(shù)據(jù)量大小),那既然要對輸入提取特征,我們就需要權(quán)重參數(shù)矩陣W了,在圖中神經(jīng)元的意思就是我們要把這個3個特征如何變幻才能得到更好的信息表達(dá),比如中間的第一個隱層有4個神經(jīng)元,那么我們需要的第一個權(quán)重參數(shù)矩陣W1就是3 * 4,表示通過矩陣鏈接后得到的是batchsize * 4的特征,也就是說我們將特征進(jìn)行的變換,看起來好像是從3變到了4只增加了一個,但是我們的核心一方面是特征的個數(shù),這個我們可以自己定義神經(jīng)元的個數(shù)。另一方面我們關(guān)注的點在于,什么樣的權(quán)重參數(shù)矩陣W1才能給我得到更好的特征,那么神經(jīng)網(wǎng)絡(luò)大家都說它是一個黑盒子,原因就在于權(quán)重參數(shù)矩陣W1內(nèi)部是很難解釋的,其實我們也不需要認(rèn)識它,只要計算機(jī)能懂就OK了。那么這一步是怎么做的呢?計算機(jī)怎么得到最好的權(quán)重參數(shù)W1幫我們完成了特征的提取呢?這一點就要靠反向傳播與梯度下降了,簡單來說就是我們告訴神經(jīng)網(wǎng)絡(luò)我的目標(biāo)就是分辨出什么是貓什么是狗,然后神經(jīng)網(wǎng)絡(luò)就會通過大量的迭代去尋找最合適的一組權(quán)重參數(shù)矩陣。
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4774瀏覽量
100909 -
人工智能
+關(guān)注
關(guān)注
1792文章
47442瀏覽量
239004 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5507瀏覽量
121298
發(fā)布評論請先 登錄
相關(guān)推薦
評論