使用GDRT跟random forest做比較,為什麼得分會是random forest比較高呢(在n_estimators同樣的情況底下)?
2019/10/15 下午 10:23
機器學習共學討論版
Yu Chen Lin
觀看數:34
回答數:2
收藏數:0
ml100-3
ml100-3-d46
請問一下我用HW建議的dataset 來對GDRT跟random forest做比較,為什麼得分會是random forest比較高呢(在n_estimators同樣的情況底下)?
回答列表
-
2019/10/17 上午 11:06陳明佑 (Ming You Chen)贊同數:1不贊同數:0留言數:0
這些是依照資料而定, 在未調參的前題下不一定哪個好
尤其是梯度提升樹, 它的特色是有較多的參數, 其後續衍生的模型如 Xdboost 等參數更多
是需要調整才會表現更好的模型
相較於梯度提升樹, 隨機森林的可調參數相對較少
既然沒什麼參數可調, 在同樣不調參的情況下, 就有可能比前者更好
但他的問題就在資料變多時, 不容易以更精確的調參進一步提升準確度
所以在大量數據競賽中(如 Kaggle , TBrain), 往往都是調參過的梯度提升樹較優
-
2019/10/17 下午 10:39張維元 (WeiYuan)贊同數:0不贊同數:0留言數:0
這邊我也會建議你重複多做幾次,觀察效果的變化?