logo
Loading...

若模型中已經有加BatchNormalization,就表示已經有dropout和regularizes的效果了嗎? - Cupoy

請問提到這個重點的意思是若模式中已經有加BatchNormalization,就表示已經有dropo...

ml100-2,ml100-2-d83

若模型中已經有加BatchNormalization,就表示已經有dropout和regularizes的效果了嗎?

2019/07/23 下午 10:34
機器學習共學討論版
JJLai
觀看數:67
回答數:1
收藏數:0
ml100-2
ml100-2-d83

請問提到這個重點的意思是

若模式中已經有加BatchNormalization,就表示已經有dropout和regularizes的效果了嗎?

也就是不需要額外再測試是否要加dropout和regularizer了,這樣理解是否正確?

回答列表

  • 2019/07/24 下午 07:45
    Jeffrey
    贊同數:0
    不贊同數:0
    留言數:1

    Batch Normalization 幾個效能:
    1. 可以防止 gradient vanishing 的問題,
    2.可以讓參數的 initialization 的影響較小
    3.對抗 Overfitting 的效果
    所以可以取代dropout,

    regularizes的效果,還是看Training 的結果。