[ y_i = gamma left( frac{x_i – mu_B}{sqrt{sigma_B^2 + epsilon}} right) + beta ]
其中,(x_i) 是批次中的第 (i) 個數(shù)據(jù)點,(mu_B) 是批次均值,(sigma_B^2) 是批次方差,(epsilon) 是為了防止除以零而添加的一個小常數(shù),(gamma) 和 (beta) 是可學習的參數(shù)。
BN已被廣泛應用于各種深度學習模型中,特別是在卷積神經(jīng)網(wǎng)絡(CNNs)中,BN層通常跟在卷積層和激活函數(shù)之間。這種組合已成為許多流行網(wǎng)絡結構的標準配置,如ResNet、VGG等。
批歸一化(BN)是一種強大的技術,它通過規(guī)范化每批數(shù)據(jù)來減少內(nèi)部協(xié)變量偏移,加速深度網(wǎng)絡的訓練,并提高模型的泛化能力。盡管存在一些挑戰(zhàn),如對批次大小的依賴和訓練推理不一致性,BN仍然是深度學習中不可或缺的技術之一。希望本文能夠幫助讀者更好地理解批歸一化的概念、工作原理和應用。