logo
Loading...

為何在hidden layer中大多數是使用ReLU 而不是 MAXOUT? - Cupoy

老師我看講義內容 MAXOUT啟動函數感覺完勝ReLU怎麼大多數情況用的是ReLU 而不是 MAXO...

ml100-2,ml100-2-d72

為何在hidden layer中大多數是使用ReLU 而不是 MAXOUT?

2019/07/14 08:01 AM
機器學習新手論壇
蕭琮寶
觀看數:0
回答數:2
收藏數:0
ml100-2
ml100-2-d72

老師我看講義內容 MAXOUT啟動函數感覺完勝ReLU


怎麼大多數情況用的是ReLU 而不是 MAXOUT