2017-01-15 7 views
0

아담을 사용하는 solver.prototxt는 다음과 같습니다. 약관을 추가하거나 삭제해야합니까? 손실 나던, '스텝 사이즈는'고정 '되어'lr_policy '때문에 삭제 될 수 있습니다 caffe example on mnist과 비교하여카페에서 아담 솔버를위한 solver.prototxt

net: "/home/softwares/caffe-master/examples/hpm/hp.prototxt" 
test_iter: 6 
test_interval: 1000 
base_lr: 0.001 
momentum: 0.9 
momentum2: 0.999 
delta: 0.00000001 
lr_policy: "fixed" 
regularization_type: "L2" 
stepsize: 2000 
display: 100 
max_iter: 20000 
snapshot: 1000 

snapshot_prefix: "/home/softwares/caffe-master/examples/hpm/hp" 
type: "Adam" 
solver_mode: GPU 

답변

1

을 줄일 것으로 보인다.

+0

가 올바른지 수 있습니다 설정 표준입니다,하지만 난 손실이 – Shai

+1

예, 동의 수렴하지 않는 이유는 생각하지 않습니다. 한 가지 제안은 'base_lr'을 변경하는 것입니다. 어쩌면 다른 질문은 관련이 있습니다 : [link] (http://stackoverflow.com/a/36440449/7709837). –

0

학습 속도가 0.1이고 느린 단계 크기 (300과 같이)를 시도하고 동작을 관찰하고 lmdb/hdf5 파일이 올바른 형식인지 확인하고 올바른 축척을 사용하여 학습을 쉽게 할 수 있는지 확인하십시오. 데이터 세트의 평균 파일

0

작업은 어떻습니까? 아담을 사용했다면. 나는 당신이 caffe에서의 설정을 보길 권한다. 왜 L2와 델타 값을 가지고 있는지 모르겠습니다. This

# The train/test net protocol buffer definition 
# this follows "ADAM: A METHOD FOR STOCHASTIC OPTIMIZATION" 
net: "examples/mnist/lenet_train_test.prototxt" 
# test_iter specifies how many forward passes the test should carry out. 
# In the case of MNIST, we have test batch size 100 and 100 test iterations, 
# covering the full 10,000 testing images. 
test_iter: 100 
# Carry out testing every 500 training iterations. 
test_interval: 500 
# All parameters are from the cited paper above 
base_lr: 0.001 
momentum: 0.9 
momentum2: 0.999 
# since Adam dynamically changes the learning rate, we set the base learning 
# rate to a fixed value 
lr_policy: "fixed" 
# Display every 100 iterations 
display: 100 
# The maximum number of iterations 
max_iter: 10000 
# snapshot intermediate results 
snapshot: 5000 
snapshot_prefix: "examples/mnist/lenet" 
# solver mode: CPU or GPU 
type: "Adam" 
solver_mode: GPU