logo
Loading...

使用GDRT跟random forest做比較,為什麼得分會是random forest比較高呢(在n_estimators同樣的情況底下)? - Cupoy

請問一下我用HW建議的dataset 來對GDRT跟random forest做比較,為什麼得分會是...

ml100-3,ml100-3-d46

使用GDRT跟random forest做比較,為什麼得分會是random forest比較高呢(在n_estimators同樣的情況底下)?

2019/10/15 下午 10:23
機器學習共學討論版
Yu Chen Lin
觀看數:34
回答數:2
收藏數:0
ml100-3
ml100-3-d46

請問一下我用HW建議的dataset 來對GDRT跟random forest做比較,為什麼得分會是random forest比較高呢(在n_estimators同樣的情況底下)?

回答列表

  • 2019/10/17 上午 11:06
    陳明佑 (Ming You Chen)
    贊同數:1
    不贊同數:0
    留言數:0

    這些是依照資料而定, 在未調參的前題下不一定哪個好


    尤其是梯度提升樹, 它的特色是有較多的參數, 其後續衍生的模型如 Xdboost 等參數更多

    是需要調整才會表現更好的模型


    相較於梯度提升樹, 隨機森林的可調參數相對較少

    既然沒什麼參數可調, 在同樣不調參的情況下, 就有可能比前者更好 

    但他的問題就在資料變多時, 不容易以更精確的調參進一步提升準確度

    所以在大量數據競賽中(如 Kaggle , TBrain), 往往都是調參過的梯度提升樹較優

  • 2019/10/17 下午 10:39
    張維元 (WeiYuan)
    贊同數:0
    不贊同數:0
    留言數:0

    這邊我也會建議你重複多做幾次,觀察效果的變化?