2017-10-13 8 views
0

생성 적대 네트워크에 대한 통찰력을 얻으려면 tensorflow를 사용하여 Stanford university assignment을 기반으로 MNIST 데이터 세트에 대한 GAN을 직접 구현하려고합니다.(MNIST - GAN) 첫 번째 반복 후 Discriminator 및 Generator 오류가 0에 가까움

주어진 운동에 대한 솔루션을 검토 및 연구하고 테스트를 통과했습니다. 그러나 제 발전기는 단지 소음을 발생시킬 것입니다.

나는 도우미 기능을 제대로 갖추고 있고, 모든 테스트가 통과했으며, 똑같은 구현을 보여주는 온라인 참조를 발견했다. 그렇다면이 잘못 될 수있는 것은 바로 판별 및 발전기 구조입니다 :

def discriminator(x): 
    with tf.variable_scope("discriminator"): 
     l_1 = leaky_relu(tf.layers.dense(x, 256, activation=None)) 
     l_2 = leaky_relu(tf.layers.dense(l_1, 256, activation=None)) 
     logits = tf.layers.dense(l_2, 1, activation=None) 
     return logits 

def generator(z): 
    with tf.variable_scope("generator"): 
     l_1 = tf.maximum(tf.layers.dense(z, 1024, activation=None), 0) 
     l_2 = tf.maximum(tf.layers.dense(l_1, 1024, activation=None), 0) 
     img = tf.tanh(tf.layers.dense(l_2, 784, activation=None)) 
     return img 

내가 그 발전기 및 판별 오류가 첫 번째 반복에서 제로에 가깝게 떨어집니다 참조하십시오.

Iter: 0, D: 1.026, G:0.6514 
Iter: 50, D: 2.721e-05, G:5.066e-06 
Iter: 100, D: 1.099e-05, G:3.084e-06 
Iter: 150, D: 7.546e-06, G:1.946e-06 
Iter: 200, D: 3.386e-06, G:1.226e-06 
... 

낮은 학습 률, 예. 1e-7의 경우 오류율은 판별 자와 생성기에서 느리게 감소하지만 결국에는 0으로 떨어지며 노이즈가 발생합니다.

Iter: 0, D: 1.722, G:0.6772 
Iter: 50, D: 1.704, G:0.665 
Iter: 100, D: 1.698, G:0.661 
Iter: 150, D: 1.663, G:0.6594 
Iter: 200, D: 1.661, G:0.6574 
... 

내 실험에서는 tensorflow 그래프가 실행 중이지만 지금까지는 의미있는 결과를 해석하지 못했습니다. 제안 사항이 있거나 디버깅을위한 기술을 제안 할 수 있다면 기꺼이 들려 드리겠습니다. 요청으로

, 여기에 GAN 내 코드입니다 - 손실 :

def gan_loss(logits_real, logits_fake): 
    labels_real = tf.ones_like(logits_real) 
    labels_fake = tf.zeros_like(logits_fake) 

    d_loss_real = tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_real, labels=labels_real) 
    d_loss_fake = tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_fake, labels=labels_fake) 
    D_loss = tf.reduce_mean(d_loss_real + d_loss_fake) 

    G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_fake, labels=labels_fake)) 
    return D_loss, G_loss 
+0

가장 가능성이 큰 것은 IMO는 발전기의 손실 기능에 실수를 범했습니다. 손실 기능 코드를 보여줄 수 있습니까? –

+0

내 질문 업데이트 –

+0

테스트 결과 : d_loss의 최대 오류 : 1.20519e-16 g_loss의 최대 오류 : 0.0119083 –

답변

2

난 당신이 변경해야이 모델을 알고있는 것처럼 :

G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
    logits=logits_fake, labels=tf.ones_like(logits_fake))) 
이에

G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
    logits=logits_fake, labels=labels_fake))