為何最後要取exp?
2019/10/01 下午 11:55
機器學習共學討論版
陳明宣
觀看數:34
回答數:1
收藏數:0
ml100-3-d22
在Day_022_Introduction_of_Feature Engineering中預測出結果後,為何還要做pred = np.expm1(pred)
做這個動作的目的是什麼?
上下文code:
from sklearn.linear_model import LinearRegression
estimator = LinearRegression()
estimator.fit(train_X, train_Y)
pred = estimator.predict(test_X)
# 將輸出結果 pred 與前面留下的 ID(ids) 合併, 輸出成檔案
# 可以下載並點開 house_baseline.csv 查看結果, 以便了解預測結果的輸出格式
# 本範例所與作業所輸出的 csv 檔, 均可用於本題的 Kaggle 答案上傳, 可以試著上傳來熟悉 Kaggle 的介面操作
pred = np.expm1(pred)
sub = pd.DataFrame({'Id': ids, 'SalePrice': pred})
sub
#sub.to_csv('house_baseline.csv', index=False)
回答列表
-
2019/10/02 下午 11:50張維元 (WeiYuan)贊同數:1不贊同數:0留言數:0
嗨,我猜是前面的過程有操作到「log1p」,所以這邊要還原。