Gradient Descent的learning rate 更新是加上梯度平方的方法,是出自於哪裡呢?
2019/07/11 上午 09:50
機器學習共學討論版
Ray Xie
觀看數:120
回答數:2
收藏數:0
ml100-2
ml100-2-d74
專家們好, 這邊關於Day74_Gradient Descent_Math.ipynb 裡面有些部分想要請教
在 In [12] 中
1. Gradient = -2*input * Loss -> 請問這個梯度算法是出自於哪裡呢?
2. 關於lr_b, lr_w 看起來感覺有點像課程pdf介紹到learning rate decay的概念, 但請問learning rate 更新是加上梯度平方的方法,是出自於哪裡呢?
lr_b = lr_b + b_grad**2
lr_w = lr_w + w_grad**2
謝謝!
回答列表
-
2019/07/13 下午 00:58Jeffrey贊同數:0不贊同數:0留言數:0
-
2019/07/15 下午 02:11張維元 (WeiYuan)贊同數:2不贊同數:0留言數:0
嗨,鐵人賽有一篇圖解說明,可以提供給你參考:https://ithelp.ithome.com.tw/articles/10198147