lstm

    0

    1답변

    Keras에 작은 신경망이 있습니다. contextTrain, contextTest, utteranceTrain, utteranceTest = train_test_split(context, utterance, test_size=0.1, random_state=1) model = Sequential() model.add(LSTM(input_shape=co

    0

    1답변

    sin 함수에 LSTM 네트워크를 맞추려고합니다. 현재 Keras를 이해하는 한 내 코드는 다음 값만 예측합니다. 이 연결에 따르면 : Many to one and many to many LSTM examples in Keras 다기관 모델입니다. 그러나, 나의 목표는 다 대다 (many-to-many) 모델을 구현하는 것이다. 기본적으로, 주어진 시간에

    0

    1답변

    입력 번호 목록에 대한 텐서 흐름 LSTM 회귀 모델을 구현하려고합니다. 예 : input_data = [1, 2, 3, 4, 5] time_steps = 2 -> X == [[1, 2], [2, 3], [3, 4]] -> y == [3, 4, 5] 코드는 아래와 같다 : TIMESTEPS = 20 num_hidden=20 Xd

    2

    1답변

    저는 음성 감정 인식 심 신경 네트워크에서 작업 해 왔습니다. CTC 손실이있는 keras Bidirectional LSTM을 사용했습니다. 나는 모델을 훈련 문제는 내가 모델이 입력으로 사 인수를 허용하고 CTC는 loss..just 모델을 구축 계산하기 때문에 눈에 보이지 않는 데이터에 테스트하기 위해이 모델을 사용할 수 있습니다 model_json =

    0

    1답변

    저는 Penn Treebank (PTB) 코퍼스를 기반으로하는 LSTM을 사용하여 언어 모델을 교육하려고합니다. 나는 이전 단어들에 주어진 다음 단어를 예측할 수 있도록 코퍼스의 모든 바이 그램을 훈련해야한다고 생각했지만 여러개의 선행 단어에 기반하여 다음 단어를 예측할 수 없었습니다. 그래서 언어 모델을 교육하는 것이 정확히 무엇입니까? 현재 구현에서 일

    0

    1답변

    Keras를 사용하여 네트워크를 구축하고 있습니다. 이 과정에서 LSTM 입력을 사용하는 레이어가 필요합니다. 아무 것도하지 않고 그냥 입력과 똑같이 출력합니다. [A_t1, A_t2가 A_t3가 A_t4가 A_t5가 A_t6], I는 층을 찾고 같이 LSTM 각 입력 레코드 인 경우, 즉 :는 model.add(SomeIdentityLayer(x))

    1

    1답변

    기본적으로 LSTM 및 TF를 사용하는 간단한 시퀀스 생성기 인 TF에서 내 지식을 확고히하기위한 매우 간단한 RNN 프로젝트를 시작했습니다. 프로젝트는 다 대일 시퀀스 생성 일 뿐이므로 입력은 4 개의 정수 윈도우이고 출력에는 각 윈도우에 대해 하나의 부동 소수점 만 있습니다. 입력 최소 숫자는 1이고 최대 값은 61이므로, 61에서 앞으로 예측할 수 있

    0

    1답변

    저는 LSTM을위한 새로운 아키텍처를 연구 중입니다. IMDB의 영화 리뷰 및 사인파와 같이 일반적으로 사용되는 데이터 세트를 살펴 보았지만 좋은 일반화 된 데이터 세트를 찾지 못했습니다. MNIST가 컨벌루션 네트워크의 "안녕하세요 세상"이라면 LSTM에 해당하는 데이터 세트는 무엇이겠습니까?

    0

    1답변

    나는 Keras에서 LSTM (Stateful)을 사용하여 시계열 문제를 연구 중이다. 나는 40,000 개의 샘플을 가지고 있으며 배치 크기 64를 사용하고 되돌아보기는 7 일입니다. 그래서 나의 텐서 형태는 (64, 7, 6) 6은 피쳐의 수입니다. 제 질문은 배치 크기 = 64라고 말할 때입니다. Keras LSTM에서 샘플을 어떻게 선택합니까? 처음

    2

    1답변

    "Livelinet : 교육용 동영상의 활력을 예측하기위한 다중 심층 반복 신경망"의 구조를 구현하려고합니다. 간단한 설명을 위해 10 초 오디오 클립을 10 초 오디오 클립으로 분할하고 1 초 오디오 클립에서 스펙트로 그램 (그림)을 얻습니다. 그런 다음 CNN을 사용하여 그림에서 표현 벡터를 가져 와서 각 1 초 비디오 클립의 10 개의 벡터를 얻습니다