1. 簡單介紹
在機器學習和認知科學領域,人工神經網絡(artificial neural network,縮寫ANN),簡稱神經網絡(neural network,縮寫NN)或類神經網絡,是一種模仿生物神經網絡(動物的中樞神經系統,特別是大腦)的結構和功能的數學模型或計算模型,用于對函數進行估計或近似。神經網絡由大量的人工神經元聯結進行計算。大多數情況下人工神經網絡能在外界信息的基礎上改變內部結構,是一種自適應系統?,F代神經網絡是一種非線性統計性數據建模工具。典型的神經網絡具有以下三個部分:
結構 (Architecture) 結構指定了網絡中的變量和它們的拓撲關系。例如,神經網絡中的變量可以是神經元連接的權重(weights)和神經元的激勵值(activities of the neurons)。
激勵函數(Activity Rule) 大部分神經網絡模型具有一個短時間尺度的動力學規則,來定義神經元如何根據其他神經元的活動來改變自己的激勵值。一般激勵函數依賴于網絡中的權重(即該網絡的參數)。
學習規則(Learning Rule)學習規則指定了網絡中的權重如何隨著時間推進而調整。這一般被看做是一種長時間尺度的動力學規則。一般情況下,學習規則依賴于神經元的激勵值。它也可能依賴于監督者提供的目標值和當前權重的值。
2. 初識神經網絡
如上文所說,神經網絡主要包括三個部分:結構、激勵函數、學習規則。圖1是一個三層的神經網絡,輸入層有d個節點,隱層有q個節點,輸出層有l個節點。除了輸入層,每一層的節點都包含一個非線性變換。
那么為什么要進行非線性變換呢?
(1)如果只進行線性變換,那么即使是多層的神經網絡,依然只有一層的效果。類似于0.6*(0.2x1+0.3x2)=0.12x1+0.18x2。
(2)進行非線性變化,可以使得神經網絡可以擬合任意一個函數,圖2是一個四層網絡的圖。
下面使用數學公式描述每一個神經元工作的方式
(1)輸出x
(2)計算z=w*x
(3)輸出new_x = f(z),這里的f是一個函數,可以是sigmoid、tanh、relu等,f就是上文所說到的激勵函數。
3. 反向傳播(bp)算法
有了上面的網絡結構和激勵函數之后,這個網絡是如何學習參數(學習規則)的呢?
首先我們先定義下本文使用的激活函數、目標函數
(1)激活函數(sigmoid):
def sigmoid(z): return 1.0/(1.0+np.exp(-z))sigmoid函數有一個十分重要的性質:,即計算導數十分方便。
def sigmoid_prime(z): return sigmoid(z)*(1-sigmoid(z))下面給出一個簡單的證明:
(2)目標函數(差的平方和),公式中的1/2是為了計算導數方便。
然后,這個網絡是如何運作的
(1)數據從輸入層到輸出層,經過各種非線性變換的過程即前向傳播。
def feedforward(self, a): for b, w in zip(self.biases, self.weights): a = sigmoid(np.dot(w, a)+b) return a其中,初始的權重(w)和偏置(b)是隨機賦值的
biases = [np.random.randn(y, 1) for y in sizes[1:]] weights = [np.random.randn(y, x) for x, y in zip(sizes[:-1], sizes[1:])]2)參數更新,即反向傳播
在寫代碼之前,先進行推導,即利用梯度下降更新參數,以上面的網絡結構(圖1)為例
(1)輸出層與隱層之間的參數更新
(2)隱層與輸入層之間的參數更新
評論
查看更多