2016-12-19 3 views
3

여러 머신에서 여러 GPU에 걸쳐 deployment/model_deploy.py를 사용하여 TF-Slim 모델/슬림을 실행하는 방법에 대한 예제가있는 경우 골치 아플 수 있습니다. 설명서는 꽤 좋지만 두 조각이 없습니다. 특히 worker_device와 ps_device에 대해 무엇을 넣어야하는지, 그리고 각 머신에서 추가로 실행할 필요가있는 것은 무엇입니까?여러 GPU/기계에서 TF-Slim을 설정/플래그하기

배포 된 페이지의 맨 아래에있는 것과 같은 예는 굉장합니다. https://www.tensorflow.org/how_tos/distributed/

답변

0

답변을 찾았다면 여기에 게시하는 것을 잊지 마십시오. 나는 똑같은 문제로 어려움을 겪고있다. 그래서 Tensorflow 태그를 추가하고 있습니다.