0

왜곡 된 자동 엔코더에서 트레이닝 손실 및 유효성 검사 손실이 감소하지 않는 이유는 무엇입니까? 교육 데이터의 크기는 10496x1024이고 CAE32x32 크기 이미지 패치를 keras으로 교육했습니다. 나는 이미 l2regularization을 시도했지만 많이 도움이되지 못했다. 나는 20 개의 신기원을 훈련 중이다. 다른 대안이 무엇이겠습니까?컨벌루션 자동 엔코더에서의 교육 손실 및 유효성 검사 손실이 많이 줄어들지 않습니다.

출력 :

에포크 1/20 10,496분의 10,496 [========] - (52S) - 손실 : 0.4029 - val_loss : 0.3821

에포크 2/20 10,496/10496 [========] - 52 초 - 손실 : 0.3825 - val_loss : 0.3784

에포크 3/20 10496/10496 [=======] - 손실 수 : 0.3802 - val_loss : 0.3772

Epo ch 4/20 10496/10496 [=======] - 손실 - : 0.3789 - val_loss : 0.3757

획기적 5/20 10496/10496 [=======] - 52s - 손실 : 0.3778 - val_loss : 0.3752

에포크 6/20 10,496분의 10,496 [=======] - 51S - 손실 : 0.3770 - val_loss : 0.3743

에포크 7/20 10,496분의 10,496 [=======] - 54s - 손실 : 0.3763 ​​- val_loss : 0.3744

에포크 8/20 10,496분의 10,496 [=======] - 51S - 손실 : 0.3758 - val_loss :,536,913,632 10 0.3735

에포크 9/20 10,496분의 10,496 [=======] - 51S - 손실 : 0.3754 - val_loss : 0.3731

에포크 10,496분의 10,496 10/20 [===== ==] - 51S - 손실 : 0.3748 - val_loss : 0.3739

에포크 10,496분의 10,496 11/20 [=======] - 51S - 손실 : 0.3745 - val_loss : 0.3729

에포크 12/20 10496/10496 [=======] - 54s - 손실 : 0.3741 - val_loss : 0.3723

,515,

에포크 10,496분의 10,496 13/20 [=======] - 51S - 손실 : 0.3736 - val_loss : 0.3718

에포크 10,496분의 10,496 14/20 [=======] - 52S - 손실 : 0.3733 - val_loss : 0.3716

에포크 10,496분의 10,496 15/20 [=======] - (52S) - 손실 : 0.3731 - val_loss : 0.3717

에포크 16/20 10,496/10496 [=======] - 51 - 손실 : 0.3728 - val_loss : 0.3712

획기적 17/20 10496/10496 [=======] - 49s - los S : 0.3725 - val_loss : 0.3709

에포크 10,496분의 10,496 18/20 [=======] - 36S - 손실 : 0.3723 - val_loss : 0 .3710

에포크 10,496분의 10,496 19/20 [=======] - 37S - 손실 : 0.3721 - val_loss : 0.3708

에포크 20/20 10,496분의 10,496 ======= =] - 37S - 손실 : 0.3720 - val_loss : 0.3704

+0

네트워크 아키텍처가 없으면 질문에 대답 할 수 없습니다. 모델이 데이터를 처리 할만큼 복잡하지 않으므로 두 가지 오류가 모두 커집니다. – pyan

답변

0

네트워크 여전히 학습, 그리고 당신은 초기에 높은 학습 속도 등 신 (新) 시대를 시도 할 수 아래로 시대 (20)에 많이 둔화되지이다 데이터가 충분한 경우 중지 방법. 이 접근법은 정규화 방법 및 k 배 교차 유효성 검사에도 적용 할 수 있습니다.