logo
Loading...

決策樹假設與分割條件 - Cupoy

1. Material裡有提到決策樹的假設,關於第2~4點看不太懂。2. 決策樹模型如何決定要分割的...

ml100-2,ml100-2-d41

決策樹假設與分割條件

2019/06/20 下午 10:11
機器學習共學討論版
辛普恩
觀看數:38
回答數:2
收藏數:0
ml100-2
ml100-2-d41

1. Material裡有提到決策樹的假設,關於第2~4點看不太懂。

2. 決策樹模型如何決定要分割的條件?是用窮舉法計算information gain嗎?例如底下鳶尾花的第一個節點petal length <= 2.35是如何得到的?

回答列表

  • 2019/06/24 下午 06:54
    Jimmy
    贊同數:0
    不贊同數:0
    留言數:1

    Hi 辛普恩!


    1. 可以再麻煩提供那些假設的文字嗎?不太確定是哪個部分


    2. 沒錯喔,排序過後計算每個切分點對 information 的改變,就可以找到最佳的切分點囉!

  • 2019/07/02 下午 00:10
    張維元 (WeiYuan)
    贊同數:1
    不贊同數:0
    留言數:0

    這邊補充一下:「決策樹模型如何決定要分割的條件?是用窮舉法計算information gain嗎?」


    1. 決策樹模型如何決定要分割的條件是利用特徵的可分性,會去計算當下利用哪一個特徵做分割可以達到最差的分割效果。常見的作法如:information gain、entropy 等等,不同類型的分類樹(C4.5、ID3)就是計算的基準不同。


    2. 是用窮舉法計算information gain嗎?通常不是利用窮舉法,實際上會搭配 pruning (剪枝)的技巧來避免窮舉耗時。