Tensorflow를 사용하여 CIFAR-10 데이터 세트를 분류하기 위해 CNN을 교육하고 있습니다. AW32 p2.xlarge 인스턴스 (1 GPU, 4 vCPU, 61GB RAM)에서 06_CIFAR-10.ipynb Jupyter Notebook을 실행 중입니다. 나는 Ubuntu 14 Tensorflow AMI을 사용하여 그것을 설정했다.리소스를 완전히 활용하는 방법
교육에 시간이 오래 걸립니다. 시스템 리소스를 확인할 때 대부분의 리소스가 여전히 사용 가능한 것으로 나타났습니다.
$ free -h
total used free shared buffers cached
Mem: 59G 3.5G 56G 15M 55M 854M
-/+ buffers/cache: 2.6G 57G
Swap: 0B 0B 0B
$ top
top - 18:10:47 up 1:53, 1 user, load average: 0.47, 0.63, 0.69
Tasks: 134 total, 1 running, 133 sleeping, 0 stopped, 0 zombie
%Cpu(s): 19.1 us, 4.6 sy, 0.0 ni, 73.2 id, 0.0 wa, 0.0 hi, 0.3 si, 2.8 st
KiB Mem: 62881764 total, 3695184 used, 59186580 free, 56792 buffers
KiB Swap: 0 total, 0 used, 0 free. 875028 cached Mem
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
2282 ubuntu 20 0 0.099t 2.192g 202828 S 248.2 3.7 141:55.88 python3
$ nvidia-smi
Sat May 6 18:12:28 2017
+------------------------------------------------------+
| NVIDIA-SMI 352.99 Driver Version: 352.99 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 Tesla K80 On | 0000:00:1E.0 Off | 0 |
| N/A 54C P0 67W/149W | 11012MiB/11519MiB | 54% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 2282 C /usr/bin/python3 10954MiB |
+-----------------------------------------------------------------------------+
병목 현상이 어디에 있는지 어떻게 알 수 있습니까? 그리고 모든 시스템 리소스를 활용하기위한 권장 사항은 무엇입니까?
첫 번째 질문에 대한 답변 : http://stackoverflow.com/questions/34293714/can-i-measure-the-execution-time-of-individual-operations-with-tensorflow/43692312#43692312 – user1735003