2017-10-21 22 views
2

케라 또는 tensorflow를 프로그래밍하여 여러 GPU에서 교육을 나누는 방법은 GPU가 8 개인 amaozn ec2 인스턴스에 있다고 가정하고 모든 것을 더 빠르게 훈련하고 싶지만 코드는 단일 CPU 또는 GPU를위한 것일뿐입니다.여러 GPU로 하나의 모델을 연습하십시오

+0

이 사이트는 약간 넓습니다. 당신은 당신을 위해 당신의 솔루션을 설계하도록 요구하고 있습니다. https://stackoverflow.com/help/how-to-ask – jdv

답변

2

예, 여러 GPU에서 Keras 모델을 실행할 수 있습니다. Theano 기능은 여전히 ​​새로운 기능이므로 TensorFlow 백엔드에서만 당분간 가능합니다. 우리는 가까운 미래에 Theano에서 multi-gpu에 대한 지원을 추가 할 계획입니다 (상당히 간단해야합니다).

TensorFlow 백엔드에서는 Keras 레이어를 정의 할 때 with tf.device (d) 범위를 사용하여 순수한 TensorFlow와 동일한 방식으로이 작업을 수행 할 수 있습니다.

원래는 here

+1

이 답변을 보완하기 위해 다음 링크에서 답변을 찾을 수 있습니다. 아이디어는 레이어 그룹마다 tf.device ('/ gpu : 0') :'또는'tf.device ('/ gpu : 1') 등으로''설정하는 것입니다. https://stackoverflow.com/questions/46366216/tensorflow-is-it-possible-to-manually-decide-which-tensors-in-a-graph-go-to-th –

+0

@ DanielMöller : 감사합니다! –