심도있는 학습을위한 초보자입니다. gogoel tensorflow (https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/tutorials/mnist/mnist_softmax.py)의 MNIST_SOFTMAX.py 튜토리얼에서 어떤 일이 발생했는지 알기 위해 두 개의 새로운 레이어를 추가했습니다.tensorflow에 더 많은 레이어 추가하기 MNIST 튜토리얼은 정확도 하락을 만듭니다.
x = tf.placeholder(tf.float32, [None, 784])
W1 = tf.Variable(tf.zeros([784, 256]))
W2 = tf.Variable(tf.zeros([256, 256]))
W3 = tf.Variable(tf.zeros([256, 10]))
B1 = tf.Variable(tf.zeros([256]))
B2 = tf.Variable(tf.zeros([256]))
B3 = tf.Variable(tf.zeros([10]))
Y1 = tf.matmul(x, W1) + B1
Y2 = tf.matmul(Y1, W2) + B2
Y3 = tf.matmul(Y2, W3) + B3
y = Y3
에 상기
x = tf.placeholder(tf.float32, [None, 784])
W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))
y = tf.matmul(x, W) + b
변경된 코드는 0.9188에서 0.1028로 정밀도 떨어진다. 왜 떨어지는 지 알 수 있습니까?
아마도 : [숨겨진 레이어가없는 것보다 더 나쁜 성능을 갖는 신경망] (http://stats.stackexchange.com/questions/181771/neural-net-with-hidden-layer-performing-worse-than-without) – blacksite
전체 코드를 어딘가에 게시 할 수 있습니까? 나는 당신이 어떻게 훈련하는지보고 싶다. 확률적인 경사 하강? –
코드 https://github.com/jeongsoopark/MachineLearning/blob/master/mnist_softmax.py 나는 단지 tensorflow의 기본 MNIST_softmax.py – jspark