logo
Loading...

訓練神經網路的細節與技巧 - Batch normalization - 機器學習百日 - Cupoy

今天的內容會帶大家了解 1. BatchNormalization 的原理 2. 如何在 keras 中加入 BatchNorm Batch normalization:除了在 Inputs...

今天的內容會帶大家了解 1. BatchNormalization 的原理 2. 如何在 keras 中加入 BatchNorm Batch normalization:除了在 Inputs 做正規化以外 批次正規層讓我們能夠將每一層的輸入/輸出做正規化 各層的正規化使得 Gradient 消失 (gradient vanish) 或爆炸 (explode) 的狀況得以減輕 但最近有 paper 對於這項論點有些不同意 有了大概的理解之後,我們開始今天的學習吧!!!