gpu

    0

    1답변

    나는 mx.gpu와 mx.mlp가 GPU에 여러 개의 코어를 사용하는 경우 (10) 간단한 질문은 창에 mxnetR에 의해 GPU 컴퓨팅을 시작했다. 나는 그렇지 않다 ... 또한 테스트로서, 나는 doParallel과 함께 mx.mlp의 간단한 프로그램을 작성했다. 하지만 여러 코어에서 프로그램을 실행하지 않는 것 같습니다. GPU 사용의 1 코어 만 증

    1

    1답변

    이제 8 개의 TITAN Xp GPU를 사용할 수있는 VGG-Face (매우 큰 모델)을 미세 조정합니다. 그러나 Caffe는 batch_size을 증가시킬 때 메모리 부족 오류를 표시합니다. 다음은 내가 한 일입니다. 먼저, batch_size은 교육 단계에서 40으로 설정되어 있으며 단일 GPU에서 정상적으로 작동합니다. 선택한 GPU는 거의 100 %

    -1

    1답변

    나는 tensorflow에서 신경망을 훈련하려고하는데, 가중치의 배열이 충분히 커서 2GB GraphDef 제한을 실행하고 있습니다. 이 상황에서 최선의 수단은 무엇입니까? 참고 : tensorflow의 모든 기능 (예 : 네트워크에 최적화 도구 없음)을 사용하는 은 실제로이 아닙니다. 오히려 저는 GPU에서 몇 가지 기본 배열 작업을 수행하는 방법으로 t

    2

    2답변

    D 차원에 비 균일 한 직사각형 격자, 격자에 논리 값 V의 행렬 및 쿼리 데이터 포인트 X의 행렬이 있습니다. 격자 점의 수는 차원에 따라 다릅니다. 나는 보간을 여러 번 같은 그리드 G와 쿼리 X에 대한,하지만 서로 다른 값에 대한 V.를 실행 목표는 그들이 항상이기 때문에, 보간의 인덱스 및 가중치를 미리 계산하고이를 재사용하는 것입니다 똑같다. 다음

    1

    1답변

    먼저 내 컴퓨터 (macbook pro)가 GPU에서 텐서 흐름을 실행할 수 있는지 확신하지 못합니다. 시스템/하드웨어/그래픽 - 디스플레이 설정을 확인했습니다. 아래에서 관련 정보를 찾을 수 있습니다. 그래픽 : 인텔 아이리스 프로 1천5백36메가바이트 그래서,이 컴퓨터 그래픽 기능을 GPU에 텐서 흐름을 실행할 수 있습니까? 두 번째 질문은 condor

    2

    2답변

    UDacity 딥 학습 과정의 과제 중 하나 인 10 수준 이미지 분류 작업에 대해 간단한 다중 레이어 퍼셉트론을 교육하려고합니다. 보다 정확하게 말하자면 다양한 글꼴에서 렌더링 된 문자를 분류하는 것입니다 (데이터 세트는 notMNIST입니다). 코드가 매우 간단 해 보이지만, 교육 과정에서 GPU 사용량이 매우 낮아도 상관 없습니다. GPU-Z로 부하를

    0

    1답변

    저는 h264_nvenc 코덱을 사용하여 ffmpeg로 비디오를 변환하는 데 사용됩니다. 현재 nvidia-smi 명령이 GPU 사용률이 20 % 미만임을 보여줍니다. 어떻게하면 더 많은 GPU를 활용하고 프로세스를 고정 할 수 있습니까?

    1

    1답변

    KNN 머신 학습 모델을 구현하려고하는데 gpu 디바이스를 사용하여 코드를 실행할 수 없습니다. 내 데이터베이스가 모양이 [1500,2,1000,6] 인 4D numpy 배열이고 실행을 완료하는 데 많은 시간이 걸리기 때문에 CPU 장치로도 실행할 수 없습니다. CUDA 및 CuDNN이 이미 설치되어 있습니다. 내 코드는 다음과 같습니다 # Placehol

    -1

    1답변

    DL4J 및 ND4J 및 시스템 매개 변수를 사용하여 GPU에서 내 NN을 교육 할 수 있습니까? Windows 7 64bit Nvidia GeForce GT 420M (CUDA 컴퓨팅 기능 - 2.1)

    0

    1답변

    컴퓨터 : Win10 홈 에디션 편집 : 아나콘다/스파이더 Tensorflow : tensorflow-GPU import tensorflow as tf import keras from tensorflow.examples.tutorials.mnist import input_data tf.set_random_seed(1) mnist = input_d