5

교육 데이터가 약 100,000 행 인 단일 파일이 있으며 각 교육 단계에서 직접 tf.train.GradientDescentOptimizer을 실행 중입니다. 설정은 기본적으로 Tensorflow의 MNIST 예제에서 직접 가져옵니다. 코드는 아래의 재현 :Tensorflow 이해 tf.train.shuffle_batch

x = tf.placeholder(tf.float32, [None, 21]) 
W = tf.Variable(tf.zeros([21, 2])) 
b = tf.Variable(tf.zeros([2])) 
y = tf.nn.softmax(tf.matmul(x, W) + b) 

y_ = tf.placeholder(tf.float32, [None, 2]) 
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1])) 
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy) 
, 나는 CSV에서 행을 읽을 수 tf.train.string_input_producertf.decode_csv을 사용하고 난 파일에서 훈련 데이터를 읽고 있어요 감안할

다음 tf.train.shuffle_batch을 내가 다음에 훈련 배치를 만들 수 있습니다.

tf.train.shuffle_batch에 대한 매개 변수가 무엇인지 혼란 스럽습니다. 나는 Tensorflow의 문서를 읽었지만 여전히 "최적의"batch_size, capacity 및 min_after_dequeue 값이 무엇인지 확실하지 않습니다. 누구든지 이러한 매개 변수에 대한 적절한 값을 선택하는 방법에 대한 의견을 듣거나 더 많은 정보를 얻을 수있는 리소스에 나를 연결할 수 있습니까? https://www.tensorflow.org/versions/r0.9/api_docs/python/io_ops.html#shuffle_batch

답변

2

불행하게도, 나는 간단한 없다고 생각

https://www.tensorflow.org/versions/r0.9/how_tos/reading_data/index.html#batching

에서 사용하는 스레드 수에 대해 조금이있다 : Thanks--

다음은 API 링크입니다 배치 크기에 대한 대답. 네트워크에 대한 효율적인 배치 크기는 네트워크에 대한 많은 세부 정보 ( )에 따라 다릅니다. 실제로 최적의 성능을 염두에두면 번을 시도해야합니다 (유사한 네트워크에서 사용하는 값에서 을 시작하는 것).