LSTM 네트워크를 교육 할 약 7M 자의 큰 텍스트 코퍼스가 있습니다. 그러나 저는 제 5 기 이후에 계속적으로 볼 수 있습니다. 생성 된 문장이 개선되는 대신 완전히 정크가됩니다. 아래 예제를 붙여 넣었습니다.LSTM 네트워크는 몇 번의 반복 작업 후에 쓰레기를 생성하기 시작합니다.
Generating with seed: "n who is in possession of the biggest ro"
n who is in possession of the biggest ro to tato ton ant an to o
ona toon t o o taon an s to ao t tan t tout att tj ton an o t an $
다른 온도에서도 시도했습니다. 위에 붙여진 예가 가장 보수적이었습니다. 여기에 또 다른 세대는 다음과 같습니다
Generating with seed: 'to sin, and most of the known world is n'
to sin, and most of the known world is na ararea t tarre a araa arae
tor tae a a aaa aaata ater tje aea arare ar araererrt tmaear araae
디버깅하려면, 내가 LSTM example from keras 붙여 넣기 사본을 결국 내 신체에 훈련. 다시, iteration 5 주위에서, 그것은 쓰레기를 생성하기 시작합니다.
디버깅하는 방법에 대한 아이디어가 있습니까? 그것은 훨씬 더 일관성있는 예측으로 시작하지만 갑자기 떨어집니다.
답장을 보내 주셔서 감사합니다. 그래서 저는 사실 21 시간 이상 ~ 100 개 에포크를 훈련 시켰습니다. 그러나 출력은 향상되지 않았습니다. 나는 확률 스코어를 검사하고 그것이 산출하는 것을 볼 것입니다. 이것은 가장 높은 온도를 가진 마지막 반복의 산출물이었습니다. "모든 단일 릭을 죽일 때까지 반복적으로 반복 해 버렸습니다. – shekit