data parallel training에서 GPU 인스턴스는 매개 변수 서버가 값을 유지하고 행렬 곱셈과 같은 계산을 실행하지 않기 때문에 반드시 매개 변수 서버에 효율적이지는 않습니다.GPU는 데이터 병렬 학습을위한 매개 변수 서버에서 효율적입니까?
trainingInput:
scaleTier: CUSTOM
masterType: standard_gpu
workerType: standard_gpu
parameterServerType: standard_cpu
workerCount: 3
parameterServerCount: 4
그 권리인가 :
그러므로, 나는 (다른 사람에 대한 매개 변수 서버의 CPU와 GPU를 사용하여) Cloud ML Engine에 대한 예제 설정 아래 좋은 비용 성과가 있다고 생각?
저는 전문가는 아니지만 GPU에 충분한 대역폭이 있다고 생각합니다. 따라서 매개 변수를 앞뒤로 전달하는 것은 GPU를 사용하여 효율적으로 수행 할 수 있지만 GPU 낭비를 의미합니다. 그러나, 나는 틀릴지도 모른다. GPU를 매개 변수 서버로 사용하는 [this] (http://www.pdl.cmu.edu/PDL-FTP/CloudComputing/GeePS-cui-eurosys16.pdf) 용지를 참조하십시오. –