scikit-learn feature importance計算方式應該是損失降低量,而不是分支次數吧?
2019/09/28 上午 11:50
機器學習共學討論版
林冠廷
觀看數:50
回答數:2
收藏數:0
ml100-3
ml100-3-d31
The importance of a feature is computed as the (normalized) total reduction of the criterion brought by that feature. It is also known as the Gini importance.
想請問下,這是scikit-learn上feature importance的敘述,計算方式似乎比較像是講義pdf中的第三種計算方式:損失降低量,而不是分支次數吧?
回答列表
-
2019/09/28 下午 07:33陳明佑 (Ming You Chen)贊同數:0不贊同數:0留言數:0
剛剛我仔細地去看了官方文件
我想同學你說得是對的,
謝謝您的反應,
我們會在研究看看這部分教材是否需要修正, 謝謝您
-
2019/09/30 上午 00:40張維元 (WeiYuan)贊同數:0不贊同數:0留言數:0
樹狀模型中的 feature_importances_ 應該是 Gini 係數,比較類似於「樹狀狀模型的分歧特徵」,換句話說,能夠將資料分得越好的代表越重要