2016-11-18 3 views
2

순수 파이썬으로 코딩 된 강화 학습 스크립트를 tensorflow로 변경하려고합니다.역 전파 그라데이션 확인

전 샘플링을 시작했을 때 첫 번째 샘플의 경우 전달 전파에서 정확히 동일한 값을 얻었지만 백 프로 그래 게이트와 그래디언트 값은 동일하지 않습니다 (가까이 있지도 않음).

나는 그것이 RELU 비선형 성을 통해 역진과 관련이 있다고 생각하지만 다시는 완전히 확신 할 수 없다.

네트워크 아키텍처의 단계별 백 프로 퍼 게이트를 보는 가장 쉬운 방법은 무엇입니까?

답변

3

한 가지 방법은 역 전파 그라디언트의 값을 인쇄하는 것입니다 :

optimizer = tf.train.AdamOptimizer() 
variables = tf.trainable_variables() 
gradients = optimizer.compute_gradients(cost, variables) 

그런 다음 sess.run 기능에 전달하여 계산 된 기울기의 값을 검사 할 수 있습니다