
使用這些基本 REST API 最佳實踐構建出色的 API
反向傳播
前向傳播(Forward Propagation):前向傳播是神經網絡通過層級結構和參數,將輸入數據逐步轉換為預測結果的過程,實現輸入與輸出之間的復雜映射。
前向傳播
反向傳播(Back Propagation):反向傳播算法利用鏈式法則,通過從輸出層向輸入層逐層計算誤差梯度,高效求解神經網絡參數的偏導數,以實現網絡參數的優化和損失函數的最小化。
鏈式法則(Chain Rule):鏈式法則是微積分中的一個基本定理,用于計算復合函數的導數。如果一個函數是由多個函數復合而成,那么該復合函數的導數可以通過各個簡單函數導數的乘積來計算。
偏導數:偏導數是多元函數中對單一變量求導的結果,它在
反向傳播中用于量化損失函數隨參數變化的敏感度,從而指導參數優化。
偏導數
1. 網絡結構
2. 前向傳播
[0.5, 0.3]
,進行前向傳播:[0.5*0.5 + 0.3*0.2 + 0.1, 0.5*0.3 + 0.3*0.4 + 0.2]
= [0.31, 0.29]
[sigmoid(0.31), sigmoid(0.29)]
≈ [0.57, 0.57]
0.6*0.57 + 0.7*0.57 + 0.3
= 0.71
sigmoid(0.71)
≈ 0.67
3. 損失計算
0.8
,使用均方誤差(MSE)計算損失:(0.8 - 0.67)^2
≈ 0.017
4. 反向傳播:計算損失函數相對于網絡參數的偏導數,并從輸出層開始反向傳播誤差。
2 * (0.67 - 0.8) * sigmoid_derivative(0.71)
≈ -0.05
sigmoid(x) * (1 - sigmoid(x))
[δ2 * 0.6 * sigmoid_derivative(0.31), δ2 * 0.7 * sigmoid_derivative(0.29)]
[-0.01, -0.01]
(這里簡化了計算,實際值可能有所不同)[δ2 * 隱藏層輸出1, δ2 * 隱藏層輸出2]
= [-0.03, -0.04]
δ2
= -0.05
5. 參數更新
W2 - 學習率 * 參數偏導數
b2 - 學習率 * 參數偏導數
6. 迭代
本文章轉載微信公眾號@架構師帶你玩轉AI