logo
Loading...

深度學習中調整的 batch_size 大小,為何會影響accuracy rate? - Cupoy

您好:我試著嘗試自己使用Keras去建模,但遇到了一些問題,想請教專家。1. 為何調整 batch_...

深度學習中調整的 batch_size 大小,為何會影響accuracy rate?

2020/10/15 10:57 上午
機器學習新手論壇
Riley
觀看數:0
回答數:2
收藏數:0

您好:

我試著嘗試自己使用Keras去建模,但遇到了一些問題,想請教專家。

1. 為何調整 batch_size 會影響 accuracy rate?

我自己用白話文的解讀,是不是有點像是,當batch_size 為1,而epoch 為 1000, 則所有的參數皆會被update 1000次。

反觀,當batch_size 為 100,而 epoch 為10,這表示將training data set 分成 10等分,然後每一等分只會被update 10次的意思嗎?

所以,當被 update的次數越少,則training 出來的 model效果可能就會很差,但是因為平行運算的關係,可以增加運算的速度。

以上是我的理解,不曉得這樣是正確的嗎?


如果是的話,我有第二的問題。

我的預期是,當batch_size 越大,accuracy rate 會一直逐步遞減。不過我自己試玩了一下,圖像中的結果與我的預期不太一致。

這樣的情況是正常的嗎? 即震幅很大。

如果是正常的情況,這樣要怎麼解釋batch_size 增加,會導致accuracy rate 下降的說法。因為,圖形呈現出來的結果是,accuracy rate 會上上下下,並沒有任何一個點可以去指出,在某個batch_size下,得到的結果最佳,所以就用這個batch_size來train model。