NN parameterを持っていないLayer(層)を共有しても大丈夫でしょうか

まず、確認させていただきます。
下記処理または関数は学習(訓練) parameterを持っていませんね:
1.batch normalization処理
2.諸activation 関数
3.dropout処理
4. 諸pooling処理

そして 学習 parameterを持っていない関数や処理のinstance変数を異なるLayerに接続(共用)しても大丈夫でしょうか。

どうぞよろしくお願いします。

コメントを投稿

0 コメント