
使用這些基本 REST API 最佳實踐構建出色的 API
梯度下降
機器學習“三板斧”:選擇模型家族,定義損失函數量化預測誤差,通過優化算法找到最小化損失的最優模型參數。
機器學習 vs?人類學習
梯度下降的本質:用于求解機器學習和深度學習中的最優化問題。
梯度下降的基本思想是從一個初始點出發,沿著損失函數的負梯度方向不斷更新參數,直到達到一個局部最小值或者全局最小值。
梯度下降的基本思想
在梯度下降中,利用方向導數的最小值(即梯度的反方向)來更新參數,從而逼近函數的最小值。
方向導數:在梯度下降算法中,方向導數用于確定函數值下降的最快方向。
方向導數
梯度(Gradient):在梯度下降算法中,梯度提供了函數下降的方向和速度信息。
梯度
批量梯度下降(BGD):在每次迭代中,批量梯度下降使用整個數據集來計算損失函數的梯度,并根據這個梯度來更新模型的所有參數。
批量梯度下降(BGD)
隨機梯度下降(SGD):與批量梯度下降不同,隨機梯度下降在每次迭代中僅隨機選擇一個樣本來計算損失函數的梯度,并根據這個梯度來更新模型的一個或多個參數。
隨機梯度下降(SGD)
優點:
缺點:
本文章轉載微信公眾號@架構師帶你玩轉AI