logo
Loading...

scikit-learn feature importance計算方式應該是損失降低量,而不是分支次數吧? - Cupoy

The importance of a feature is computed as the (no...

ml100-3,ml100-3-d31

scikit-learn feature importance計算方式應該是損失降低量,而不是分支次數吧?

2019/09/28 上午 11:50
機器學習共學討論版
林冠廷
觀看數:50
回答數:2
收藏數:0
ml100-3
ml100-3-d31

The importance of a feature is computed as the (normalized) total reduction of the criterion brought by that feature. It is also known as the Gini importance.

想請問下,這是scikit-learn上feature importance的敘述,計算方式似乎比較像是講義pdf中的第三種計算方式:損失降低量,而不是分支次數吧?

回答列表

  • 2019/09/28 下午 07:33
    陳明佑 (Ming You Chen)
    贊同數:0
    不贊同數:0
    留言數:0

    剛剛我仔細地去看了官方文件

    我想同學你說得是對的, 

    謝謝您的反應,  

    我們會在研究看看這部分教材是否需要修正, 謝謝您

  • 2019/09/30 上午 00:40
    張維元 (WeiYuan)
    贊同數:0
    不贊同數:0
    留言數:0

    樹狀模型中的 feature_importances_ 應該是 Gini 係數,比較類似於「樹狀狀模型的分歧特徵」,換句話說,能夠將資料分得越好的代表越重要