pytorch

    1

    1답변

    파이썬 목록에서 우리는 list.index(somevalue)을 사용할 수 있습니다. 파이크가 어떻게 이럴 수 있지? 예 :이어서 a=[1,2,3] print(a.index(2)) , 1가 출력된다. 어떻게 파이톤 텐서가 파이썬리스트로 변환하지 않고 이것을 할 수 있습니까?

    0

    2답변

    PyTorch를 배우려는 목적으로 놀고 있는데, 매우 바보 같은 질문이 있습니다. 어떻게 행렬에 단일 벡터를 곱할 수 있습니까? 는 여기에 내가 무엇을 시도했다입니다 : 한편 >>> import torch >>> a = torch.rand(4,4) >>> a 0.3162 0.4434 0.9318 0.8752 0.0129 0.8609 0.6402 0

    1

    1답변

    torch.utils.data.DataLoader 여러 개의 변형을 적용한 데이터 집합을 만들 때 여러 개의 torch.utils.data.DataLoader을 사용하려고합니다. 현재 코드는 대략입니다. d_transforms = [ transforms.RandomHorizontalFlip(), # Some other transforms.

    0

    1답변

    .mat 파일 인 3-D (time_stepinputsizetotal_num) 행렬의 데이터 집합이 있습니다. 내가 5. 내 코드 인 BATCH_SIZE LSTM에 대한 입력 데이터 세트를 얻을 수 Dataloader에 사용하려는 것은 다음과 같습니다 : file_path = "…/database/frameLength100/notOverlap/a.mat"

    -1

    1답변

    PyTorch를 과학 계산 패키지로 사용하고 싶습니다. 그 점에서 그다지 추천할만한 점이 많습니다. Tensors는 기본적으로 GPU 가속 numpy 배열이고, 그 autograd 메커니즘은 신경망 외에도 많은 것들에 잠재적으로 유용합니다. 그러나 사용 가능한 자습서 및 설명서는 기계 학습을 위해 사람들을 신속하게 불러 들이고 실행하는 데 적합합니다. Te

    -1

    1답변

    전체 데이터 세트 (예 : ICDAR 2015 또는 CamVid의 사람) 중 일부만 차지하는 개체를 분할하려고합니다. 픽셀 수준에서 양수 샘플과 음수 샘플의 비율은 약 1 : 200입니다. 사전 교육을받은 VGG16 또는 ResNet50 인 백본 네트워크는 CamVid 데이터 세트에서 12 개의 클래스로 잘 작동 할 수 있습니다. 그러나이 네트워크를 Cam

    1

    2답변

    난 그냥이 작업을 수행합니다 : t = Variable(torch.randn(5)) t =t.cuda() print(t) 를하지만 매번, 5 ~ 10 minitues 걸립니다. 대역폭을 테스트하기 위해 cuda 샘플을 사용했지만 괜찮습니다. 그런 다음 pdb를 사용하여 가장 많은 시간이 걸리는 것을 찾습니다. 나는 /anaconda3/lib/pyth

    0

    1답변

    3 차원 신경망 (입력, 숨김, 출력)에 숨겨진 유닛을 동적으로 추가하려고합니다. 나는 새로운 숨겨진 units.This를 추가 class my_network(torch.nn.Module): def __init__(self,input_dim,hidden_dim,output_dim): super(my_network,self).__init_

    0

    1답변

    두 번째 텐서 X와 첫 번째 색인 인 두 개의 색인 목록과 두 번째 a와 b 목록이 있습니다. 나는이 작업을 수행 할 수있는 방법 X[a[i],b[i]] = 0 for i in range(len(a)) 하고 싶어. 내가 직접 X[a,b] 오류가있는 경우 IndexError : 고급 색인 생성 객체를 브로드 캐스트 할 수 없습니다.

    2

    1답변

    pytorch에는 IntTensor 또는 cuda.IntTensor 일 수있는 변수가 있습니다. 64 비트를 유지하는 CPU/GPU로 변경해야합니다. variable.long()은 pytorch의 모든 구현에서 64 비트를 보장합니까? 그렇지 않다면, 변수는 모든 구현에서 CPU/GPU를 유지하면서 64 비트로 어떻게 변환 될 수 있습니까?