클라우드 ML에서 Tensorflow 1.3 (및 어쩌면 1.4)을 사용하고 싶습니다. 클라우드 ML에 멀티 GPU 시스템에서 임 실행중인 작업클라우드 ML Tensorflow 및 Cudnn 버전 호환성
내가 할 그 아래 그림과 같이 setup.py에서 tensorflow 버전을 지정하여 :
클라우드 ML에 설치되어있는 cudnn 라이브러리를 무엇from setuptools import setup
REQUIRED_PACKAGES = ['tensorflow==1.3.0']
setup(
name='my-image-classification',
install_requires=REQUIRED_PACKAGES,
version='1.0',
packages=['my_image_classification',
'my_image_classification/foo',
'my_image_classification/bar',
'my_image_classification/utils'],
)
? 그것은 tensorflow 1.3 및 tensorflow 1.3+와 호환됩니까?
나는 작업을 시작할 수 있었다, 그러나 성능은 기대 값보다 10 배이며, 라이브러리의 기본 연결편집에 문제가 있는지 궁금 해요 :
I 클라우드 ML의 Cudnn 버전이 Tensorflow 1.3에 필요한 것과 일치하지 않아서 꽤 확신합니다. Tensorflow 1.3 작업에 "Creating Tensorflow device (/ gpu : 0 ...)"메시지가 나타나지 않는 것으로 나타났습니다. 클라우드에서 기본 Tensorflow를 사용하여 작업을 실행할 때 나타나는 로그
TensorFlow r1.3을 사용하여 클라우드 ML에 실제로 모델을 배포 할 수 있었던 곳은 어디입니까? 나는 2 주 전에 그것을 시도했지만 불가능했다. 실제로 지원되는 런타임 버전은 r1.0 및 r1.2이며 여기에 나열되어 있습니다 .cloud.google.com/ml-engine/docs/runtime-version-list 그러나 r1.3과 함께 no로 교육 할 수있었습니다. 문제는 https://cloud.google.com/ml-engine/docs/versioning#specifying_custom_versions_of_tensorflow_for_training에서 설명합니다. 나는 배치 된 노드가 setup.py에 정의 된 REQUIRED_PACKAGES 중 표준 설치를 수행하지만 예측은하지 않는다고 생각합니다. – Guille
예. 여전히 런타임으로 지원되지 않지만 해결 방법입니다. gcloud submit job .. 명령에 --runtime-version = HEAD 명령 줄 인수를 사용하십시오. 또한 setup.py에 REQUIRED_PACKAGES를 지정해야합니다. 수락 된 답변 아래의 주석을보십시오. – wrecktangle
그래, 그게 :) 감사합니다! 이제 우리는 TF 1.4를 사용하여 모델을 교육하고 배치 할 수는 있지만 놀라 울 정도로 온라인 예측을 할 수는 있지만 일괄 예측은 할 수 없습니다. – Guille