[ y_i = gamma left( frac{x_i – mu_B}{sqrt{sigma_B^2 + epsilon}} right) + beta ]
其中,(x_i) 是批次中的第 (i) 個(gè)數(shù)據(jù)點(diǎn),(mu_B) 是批次均值,(sigma_B^2) 是批次方差,(epsilon) 是為了防止除以零而添加的一個(gè)小常數(shù),(gamma) 和 (beta) 是可學(xué)習(xí)的參數(shù)。
BN已被廣泛應(yīng)用于各種深度學(xué)習(xí)模型中,特別是在卷積神經(jīng)網(wǎng)絡(luò)(CNNs)中,BN層通常跟在卷積層和激活函數(shù)之間。這種組合已成為許多流行網(wǎng)絡(luò)結(jié)構(gòu)的標(biāo)準(zhǔn)配置,如ResNet、VGG等。
批歸一化(BN)是一種強(qiáng)大的技術(shù),它通過規(guī)范化每批數(shù)據(jù)來減少內(nèi)部協(xié)變量偏移,加速深度網(wǎng)絡(luò)的訓(xùn)練,并提高模型的泛化能力。盡管存在一些挑戰(zhàn),如對批次大小的依賴和訓(xùn)練推理不一致性,BN仍然是深度學(xué)習(xí)中不可或缺的技術(shù)之一。希望本文能夠幫助讀者更好地理解批歸一化的概念、工作原理和應(yīng)用。