교육 데이터가 약 100,000 행 인 단일 파일이 있으며 각 교육 단계에서 직접 tf.train.GradientDescentOptimizer
을 실행 중입니다. 설정은 기본적으로 Tensorflow의 MNIST 예제에서 직접 가져옵니다. 코드는 아래의 재현 :Tensorflow 이해 tf.train.shuffle_batch
x = tf.placeholder(tf.float32, [None, 21])
W = tf.Variable(tf.zeros([21, 2]))
b = tf.Variable(tf.zeros([2]))
y = tf.nn.softmax(tf.matmul(x, W) + b)
y_ = tf.placeholder(tf.float32, [None, 2])
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)
, 나는 CSV에서 행을 읽을 수
tf.train.string_input_producer
및
tf.decode_csv
을 사용하고 난 파일에서 훈련 데이터를 읽고 있어요 감안할
다음 tf.train.shuffle_batch
을 내가 다음에 훈련 배치를 만들 수 있습니다.
tf.train.shuffle_batch
에 대한 매개 변수가 무엇인지 혼란 스럽습니다. 나는 Tensorflow의 문서를 읽었지만 여전히 "최적의"batch_size, capacity 및 min_after_dequeue 값이 무엇인지 확실하지 않습니다. 누구든지 이러한 매개 변수에 대한 적절한 값을 선택하는 방법에 대한 의견을 듣거나 더 많은 정보를 얻을 수있는 리소스에 나를 연결할 수 있습니까? https://www.tensorflow.org/versions/r0.9/api_docs/python/io_ops.html#shuffle_batch