若模型中已經有加BatchNormalization,就表示已經有dropout和regularizes的效果了嗎?
2019/07/23 下午 10:34
機器學習共學討論版
JJLai
觀看數:67
回答數:1
收藏數:0
ml100-2
ml100-2-d83
請問提到這個重點的意思是
若模式中已經有加BatchNormalization,就表示已經有dropout和regularizes的效果了嗎?
也就是不需要額外再測試是否要加dropout和regularizer了,這樣理解是否正確?
回答列表
-
2019/07/24 下午 07:45Jeffrey贊同數:0不贊同數:0留言數:1Batch Normalization 幾個效能:1. 可以防止 gradient vanishing 的問題,
2.可以讓參數的 initialization 的影響較小3.對抗 Overfitting 的效果所以可以取代dropout,regularizes的效果,還是看Training 的結果。