請問Batch Normalization是否使用於前幾層即可達到加速模型訓練的效果?
2020/03/17 上午 09:52
電腦視覺深度學習討論版
徐正憲
觀看數:12
回答數:1
收藏數:0
請問Batch Normalization是否使用於前幾層即可達到加速模型訓練的效果?
若是,實務經驗一般都使用幾層?謝謝
回答列表
-
2020/03/17 下午 02:35楊哲寧贊同數:1不贊同數:0留言數:0
您好,我自己的經驗是Batch Normalization的確能加速模型的收斂
一般使用BN的話,從頭到尾都會使用(除了output layer),比較不會只限於特定幾層。