ChainerのAdamの学習率について

前提

Chainerで学習モデルを作成しています。
学習の高速化を目的にBatchサイズを一回り大きくしようと思い、記事を参考に精度の調整のため学習率を変更したいと考えています。

現在利用している最適化アルゴリズムはAdamなのですが、ChainerのAdamは
chainer.optimizers.Adam(alpha=0.001, beta1=0.9, beta2=0.999, eps=1e-08, eta=1.0, weight_decay_rate=0, amsgrad=False, adabound=False, final_lr=0.1, gamma=0.001)
となっています。

ここで調整すべきパラメータ(記事で言うところの学習率)はfinal_lrでしょうか。それとも他のパラメータを指しているのでしょうか。

補足情報(FW/ツールのバージョンなど)

chainer.optimizers.Adamについて

コメントを投稿

0 コメント