왜곡 된 자동 엔코더에서 트레이닝 손실 및 유효성 검사 손실이 감소하지 않는 이유는 무엇입니까? 교육 데이터의 크기는 10496x1024
이고 CAE
은 32x32
크기 이미지 패치를 keras
으로 교육했습니다. 나는 이미 l2regularization
을 시도했지만 많이 도움이되지 못했다. 나는 20 개의 신기원을 훈련 중이다. 다른 대안이 무엇이겠습니까?컨벌루션 자동 엔코더에서의 교육 손실 및 유효성 검사 손실이 많이 줄어들지 않습니다.
출력 :
에포크 1/20 10,496분의 10,496 [========] - (52S) - 손실 : 0.4029 - val_loss : 0.3821
에포크 2/20 10,496/10496 [========] - 52 초 - 손실 : 0.3825 - val_loss : 0.3784
에포크 3/20 10496/10496 [=======] - 손실 수 : 0.3802 - val_loss : 0.3772
Epo ch 4/20 10496/10496 [=======] - 손실 - : 0.3789 - val_loss : 0.3757
획기적 5/20 10496/10496 [=======] - 52s - 손실 : 0.3778 - val_loss : 0.3752
에포크 6/20 10,496분의 10,496 [=======] - 51S - 손실 : 0.3770 - val_loss : 0.3743
에포크 7/20 10,496분의 10,496 [=======] - 54s - 손실 : 0.3763 - val_loss : 0.3744
에포크 8/20 10,496분의 10,496 [=======] - 51S - 손실 : 0.3758 - val_loss :,536,913,632 10 0.3735
에포크 9/20 10,496분의 10,496 [=======] - 51S - 손실 : 0.3754 - val_loss : 0.3731
에포크 10,496분의 10,496 10/20 [===== ==] - 51S - 손실 : 0.3748 - val_loss : 0.3739
에포크 10,496분의 10,496 11/20 [=======] - 51S - 손실 : 0.3745 - val_loss : 0.3729
에포크 12/20 10496/10496 [=======] - 54s - 손실 : 0.3741 - val_loss : 0.3723
,515,에포크 10,496분의 10,496 13/20 [=======] - 51S - 손실 : 0.3736 - val_loss : 0.3718
에포크 10,496분의 10,496 14/20 [=======] - 52S - 손실 : 0.3733 - val_loss : 0.3716
에포크 10,496분의 10,496 15/20 [=======] - (52S) - 손실 : 0.3731 - val_loss : 0.3717
에포크 16/20 10,496/10496 [=======] - 51 - 손실 : 0.3728 - val_loss : 0.3712
획기적 17/20 10496/10496 [=======] - 49s - los S : 0.3725 - val_loss : 0.3709
에포크 10,496분의 10,496 18/20 [=======] - 36S - 손실 : 0.3723 - val_loss : 0 .3710
에포크 10,496분의 10,496 19/20 [=======] - 37S - 손실 : 0.3721 - val_loss : 0.3708
에포크 20/20 10,496분의 10,496 ======= =] - 37S - 손실 : 0.3720 - val_loss : 0.3704
네트워크 아키텍처가 없으면 질문에 대답 할 수 없습니다. 모델이 데이터를 처리 할만큼 복잡하지 않으므로 두 가지 오류가 모두 커집니다. – pyan