model.add activation
2019/08/07 上午 01:03
機器學習共學討論版
林宣威
觀看數:15
回答數:1
收藏數:0
請問下面程式碼 將activation寫在一行 與 單獨寫一行,效果是一樣的嗎?
model.add(Conv2D(64,(3,3),activation="relu"))
model.add(Conv2D(64, (3, 3)))
model.add(Activation('relu'))
另外在業界中keras tensorflow,是否tensorflow比較吃香?
如果keras後端用tensorflow-gpu 跟 直接用tensorflow-gpu 兩者相比,是否直接使用tensorflow比較快 謝謝
回答列表
-
2019/08/07 上午 10:13Seanyu.TW贊同數:0不贊同數:0留言數:0
Hi,
兩種寫法效果一樣,只是因為我們常常在 Conv 與 ReLU 中間插入 BN,所以習慣上會分開寫,彈性比較大。
另外在新的版本 (也許 tensorflow v1.12 後稍微穩定, v2.0則是主力支援) 中,Tensorflow 已經將 Keras 納入體系,所以可以呼叫 tf.keras,用法上與原先的 Keras 差不多,但是可以與 Tensorflow 自己的 operations 混用,所以其實不需要太擔心現在學 Keras 未來會不會不吃香。只是當然有許多更精巧的操作如果會一些 tensorflow 底層的操作的話,用起來會用流暢。