버전 : chainer 2.0.2 나는 아담 최적화, 다음 오류를보고 사용, 나는 그것이이 코드 (? fix1 == 0)에 의해 발생했다 발견 :체인저에 Adam Optimizer 보고서 오류가 있습니까?
@property
def lr(self):
fix1 = 1. - math.pow(self.hyperparam.beta1, self.t)
fix2 = 1. - math.pow(self.hyperparam.beta2, self.t)
return self.hyperparam.alpha * math.sqrt(fix2)/fix1
오류 로그 : adam.py에 :
Traceback (most recent call last):
File "AU_rcnn/train.py", line 237, in <module>
main()
File "AU_rcnn/train.py", line 233, in main
trainer.run()
File "/root/anaconda3/lib/python3.6/site-packages/chainer/training/trainer.py", line 285, in run
initializer(self)
File "/root/anaconda3/lib/python3.6/site-packages/chainer/training/extensions/exponential_shift.py", line 48, in initialize
self._init = getattr(optimizer, self._attr)
File "/root/anaconda3/lib/python3.6/site-packages/chainer/optimizers/adam.py", line 121, in lr
return self.hyperparam.alpha * math.sqrt(fix2)/fix1
ZeroDivisionError: float division by zero
'exponential_shift'에서 어떤 값을 변경하려고 시도 했습니까? Adam은 학습 속도로 '알파'를 사용하고 'lr'자체는 만져서는 안됩니다. – corochann
아담 알고리즘을 사용하는 방법? 나는 lr을 설정할 수 없습니까? – machen
@corcochann은 adam을 사용하는 예제 코드입니다. 그렇습니다. 모든 epoch에서 lr decay exponential_shift를 설정합니다. = 0.9 – machen