3 GPU를 사용하여 slim model을 훈련시키고 있습니다.TF 슬림의 inception_v3 모델에 여러 개의 GPU 사용
내가 특별히 모델을 할당하는 두 번째 GPU를 사용하는 TF를 말하는이 :
with tf.device('device:GPU:1'):
logits, end_points = inception_v3(inputs)
그러나, 나는 내 코드를 실행하는 GPU 매번상의 OOM 오류를 받고 있어요. 모델이 메모리에 맞도록 batch_size를 줄이려고했지만 그물은 망가졌습니다.
제가 GPUS를 3 개 가지고 있기 때문에, TF가 제 3의 GPU를 사용할 때 제 3의 GPU를 사용하도록 알려줄 수 있습니까? 나는 TF에게 어떤 GPU도 사용하지 말고 부드러운 배치를 허용하지 않으려 고 노력했지만, 작동하지는 않습니다.