logo
Loading...

perplexity 的意思及S型的流行還原問題 - Cupoy

先附上github:https://github.com/gn0262487838/100_day_...

tsne,sklearn

perplexity 的意思及S型的流行還原問題

2020/05/23 上午 11:47
機器學習共學討論版
Jack
觀看數:34
回答數:4
收藏數:1
tsne
sklearn


先附上github:

https://github.com/gn0262487838/100_day_marathon_for_ML/blob/master/D62/Day_062_tsne_HW.ipynb


總共有兩個問題想詢問大家


第一個問題:

根據sklearn中TSNE參數,上圖中兩個參數

n_components 我理解是映射到2維空間(如果等於3,就是3維空間)的意思,不知道這樣理解是否正確?

perlexity 我理解是 分群的數量,其實我還是不太清楚這個參數的意思是?


第二個問題:


作業figure(上圖)/範例figure(下圖)

在作業中(github內),當perlexity調整到200時有接近S型,但方向好像跟原來的S型不太一樣,再把perlexity調到500後,就一直維持在圓形狀態,推論不管perlexity調得再高,s型永遠不會是原來的s型。

那為什麼範例中圓形還是可以推得圓形圖形?(答案有解釋但還是不懂他的意思,跟頭尾相連有啥關係?)

回答列表

  • 2020/05/27 上午 08:44
    張維元 (WeiYuan)
    贊同數:0
    不贊同數:0
    留言數:0

    嗨,Jack,關於第一個問題以下回答:


    這個函式是用映射到不同維度空間沒錯,只是映射的規則有很多,例如線性轉換、多項式轉換、高斯轉換等等的。而 perlexity 其實就是一種映射轉換的算法依據,更多說明可以參考這一篇文章


    如果這個回答對你有幫助請主動點選「有幫助」的按鈕,也可以追蹤我的GITHUB帳號。若還有問題的話,也歡迎繼續再追問或者把你理解的部分整理上來,我都會提供你 Review 和 Feedback 😃😃😃

  • 2020/05/27 上午 08:46
    張維元 (WeiYuan)
    贊同數:1
    不贊同數:0
    留言數:1

    嗨,Jack,關於第二個問題我看不太懂欸,你可以多描述一點嗎?


    如果這個回答對你有幫助請主動點選「有幫助」的按鈕,也可以追蹤我的GITHUB帳號。若還有問題的話,也歡迎繼續再追問或者把你理解的部分整理上來,我都會提供你 Review 和 Feedback 😃😃😃

  • 2020/06/11 下午 08:30
    Jack
    贊同數:0
    不贊同數:0
    留言數:0

    能否解答一下?

  • 2020/06/12 上午 06:09
    張維元 (WeiYuan)
    贊同數:0
    不贊同數:0
    留言數:0

    我的疑問是既然流行還原是映射到另外一個空間,那在範例中是可以把原來的主題上最下方的圖的origin映射到的平面座標且當perlexity越來,就會跟原圖類似。 但是在作業中S行卻不能如同上述概念一樣,為什麼?


    => 概念上就是 S 型的資料分布,利用 TSNE 分群的時候是不容易還原回來的。這邊建議可以試試看其他種還原方法,除了 t-SNE 之外,還有 Isompa / LLE / MED /MDS 等。