鍵.png)
使用這些基本 REST API 最佳實踐構(gòu)建出色的 API
反向傳播
前向傳播(Forward Propagation):前向傳播是神經(jīng)網(wǎng)絡(luò)通過層級結(jié)構(gòu)和參數(shù),將輸入數(shù)據(jù)逐步轉(zhuǎn)換為預(yù)測結(jié)果的過程,實現(xiàn)輸入與輸出之間的復(fù)雜映射。
前向傳播
反向傳播(Back Propagation):反向傳播算法利用鏈?zhǔn)椒▌t,通過從輸出層向輸入層逐層計算誤差梯度,高效求解神經(jīng)網(wǎng)絡(luò)參數(shù)的偏導(dǎo)數(shù),以實現(xiàn)網(wǎng)絡(luò)參數(shù)的優(yōu)化和損失函數(shù)的最小化。
鏈?zhǔn)椒▌t(Chain Rule):鏈?zhǔn)椒▌t是微積分中的一個基本定理,用于計算復(fù)合函數(shù)的導(dǎo)數(shù)。如果一個函數(shù)是由多個函數(shù)復(fù)合而成,那么該復(fù)合函數(shù)的導(dǎo)數(shù)可以通過各個簡單函數(shù)導(dǎo)數(shù)的乘積來計算。
偏導(dǎo)數(shù):偏導(dǎo)數(shù)是多元函數(shù)中對單一變量求導(dǎo)的結(jié)果,它在
反向傳播中用于量化損失函數(shù)隨參數(shù)變化的敏感度,從而指導(dǎo)參數(shù)優(yōu)化。
偏導(dǎo)數(shù)
1. 網(wǎng)絡(luò)結(jié)構(gòu)
2. 前向傳播
[0.5, 0.3]
,進(jìn)行前向傳播:[0.5*0.5 + 0.3*0.2 + 0.1, 0.5*0.3 + 0.3*0.4 + 0.2]
= [0.31, 0.29]
[sigmoid(0.31), sigmoid(0.29)]
≈ [0.57, 0.57]
0.6*0.57 + 0.7*0.57 + 0.3
= 0.71
sigmoid(0.71)
≈ 0.67
3. 損失計算
0.8
,使用均方誤差(MSE)計算損失:(0.8 - 0.67)^2
≈ 0.017
4. 反向傳播:計算損失函數(shù)相對于網(wǎng)絡(luò)參數(shù)的偏導(dǎo)數(shù),并從輸出層開始反向傳播誤差。
2 * (0.67 - 0.8) * sigmoid_derivative(0.71)
≈ -0.05
sigmoid(x) * (1 - sigmoid(x))
[δ2 * 0.6 * sigmoid_derivative(0.31), δ2 * 0.7 * sigmoid_derivative(0.29)]
[-0.01, -0.01]
(這里簡化了計算,實際值可能有所不同)[δ2 * 隱藏層輸出1, δ2 * 隱藏層輸出2]
= [-0.03, -0.04]
δ2
= -0.05
5. 參數(shù)更新
W2 - 學(xué)習(xí)率 * 參數(shù)偏導(dǎo)數(shù)
b2 - 學(xué)習(xí)率 * 參數(shù)偏導(dǎo)數(shù)
6. 迭代
本文章轉(zhuǎn)載微信公眾號@架構(gòu)師帶你玩轉(zhuǎn)AI