lstm

    0

    1답변

    Keras를 처음 사용 했으므로 LSTM 레이어의 입력 데이터 모양을 이해하기가 어려웠습니다. Keras 설명서에 따르면 입력 데이터는 모양이 3D 텐서이어야한다고 나와 있습니다 (nb_samples, timesteps, input_dim). 이 형식을 이해하는 데 어려움이 있습니다. timesteps 변수는 네트워크가 기억하는 타임 스텝 수를 나타 냅니까

    0

    1답변

    나는 N 개의 관측치와 F 특징을 가진 timeseries 데이터 세트를 가지고 있습니다. 모든 기능은 매니페스트 (1) 또는 매니페스트 (0) 중 하나 일 수 있습니다. 그래서 데이터 세트는 다음과 같이 보일 것이다 : T F1 F2 F3 F4 F5 ... F 0 1 0 0 1 0 0 1 0 1 0 0 1 1 2 0 0 0 1

    1

    1답변

    GPL에서 https://github.com/chiphuyen/stanford-tensorflow-tutorials/tree/master/assignments/chatbot 여기에서 "standford chatbot"을 훈련시키고 싶지만 내 GPU는 사용하지 않지만 모든 필요 라이브러리 (CuNN, CUDA, tensorflow-gpu 등)는 def tra

    0

    1답변

    LSTM을 사용하여 간단한 다 대일 RNN 분류자를 학습하려고합니다. 내 타임 스텝은 100 개의 데이터 포인트로 7 개의 피처가 있으며 총 192382 개의 샘플이 있습니다. 여기 내 모델 : model = Sequential() model.add(LSTM(50,input_shape = (100,7),name = 'LSTM',return_sequence

    1

    1답변

    잘 훈련 된 LSTM 기반 네트워크를 발견했습니다. 네트워크에서 마스킹을 허용합니다. for l in range(len(model.layers)): d=model.layers[l].__dict__ print(d['supports_masking']) print(d['name']) 은 입력란 옆의 모든 '이름'에 대해 나를 나타냅

    0

    1답변

    각 레이어에 2 개의 레이어와 256 개의 셀이있는 LSTM을 구현하려고합니다. 나는 PyTorch LSTM 프레임 워크를 이해하려고 노력하고있다. 내가 편집 할 수있는 torch.nn.LSTM의 변수는 input_size, hidden_size, num_layers, bias, batch_first, dropout 및 bidirectional입니다. 그러

    0

    1답변

    나는 tensorflow에서 CNN을 사용하여 LSTM을 연구 중이다. LSTM 네트워크에 스칼라 라벨을 하나의 조건으로 넣고 싶습니다. LSTM이 어떤 의미인지 아는 사람이 있습니까? 사용 가능한 경우 그 사용법을 알려주십시오. 감사합니다.

    1

    2답변

    단일 출력 회귀 모델을 구축하기 위해 노력하지만, 마지막 층에 문제가있을 것 같습니다 inputs = Input(shape=(48, 1)) lstm = CuDNNLSTM(256,return_sequences=True)(inputs) lstm = Dropout(dropouts[0])(lstm) #aux_input auxiliary_inputs = I

    0

    1답변

    신경망과 LSTM을 처음 사용하므로 여기에서 도움이 필요합니다. 나는 다양한 시간 길이의 100 파일이 있으며 각 파일에는 각각 13 개의 피쳐가 있습니다. 각 파일은 출력 클래스를 나타냅니다. 이제 이러한 timeseries 파일을 분류 할 수있는 LSTM 네트워크가 필요합니다. 어떻게해야합니까? 데이터를 어떻게 처리/준비해야합니까? 네트워크 입력은 어떻

    1

    1답변

    필자는 1025643 개의 항목과 72 개의 기능/속성의 테스트 데이터를 가지고 있습니다. 필자는 모양 (245, 30, 72)을 가진 입력 데이터 trainX와 모양 (245,)을 가진 trainY를 가진 lstm을 교육했습니다. 또한 나는 look-back을 trainX의 30 번째 단계 (245, 30, 72)가되도록 지정했다. 이제 모델을 훈련 후