為何在hidden layer中大多數是使用ReLU 而不是 MAXOUT?
2019/07/14 04:01 下午
機器學習共學討論版
蕭琮寶
觀看數:60
回答數:2
收藏數:0
ml100-2
ml100-2-d72
老師我看講義內容 MAXOUT啟動函數感覺完勝ReLU
怎麼大多數情況用的是ReLU 而不是 MAXOUT