D94 Convolution2D 超參數
2019/08/15 上午 03:18
機器學習共學討論版
Li Wei Yang
觀看數:69
回答數:1
收藏數:0
ml100-2
ml100-2-d92
ml100-2-d93
ml100-2-d94
1.看了D92-D94,感覺卷積像具備model的性質,訓練濾波器內的參數來產生好的特徵圖供DNN學習,那麼Convolution2D的參數配置有甚麼參考依據或方向來思考?或針對他來驗證好不好,而不會建得太糟糕
3.Padding 最外框補 0 有甚麼好處?或造成壞處
4.Stride 跨幾步有點像濃縮的感覺,有例子可以說明甚麼情況下可以造成甚麼優點嗎?
回答列表
-
2019/08/16 上午 10:59Jimmy贊同數:2不贊同數:0留言數:1
Hi Li wei!
1. 基本上目前的 filter size 都會設為 3x3,並透過堆疊多層來學習到豐富的特徵,這點你可以從 VGG Net 延伸到 Inception Net 發現,以往會用 5x5 甚至 7x7 的 filters,但後來實驗結果發現 3x3 堆疊多層的效果可以最好!
2. Padding 補 0 ,可以讓靠近邊緣的特徵有比較充分的學習,你可以想像一下,如果沒有做 padding,那影像中邊緣的數值在使用 filter 做 convolution 時,只會計算到一次;但有做 padding 時,如果 stride =1,這樣同樣的邊緣數值可以被 filter 經過兩次來運算,比較能捕捉到邊緣的特徵
3. 讓特徵圖可以逐步縮小尺寸,在最後攤平接上 Dense layer 時不要有過多的參數。