rnn

    4

    1답변

    케 라스 백엔드에서 우리는 with_logits에 K.binary_crossentropy이라는 플래그가 있습니다. 일반적인 이진 교차 분압과 로그가있는 이진 교차 분압의 차이점은 무엇입니까? seq2seq 모델을 사용 중이며 출력 시퀀스가 ​​100111100011101 인 것으로 가정합니다. 재귀 LSTM 또는 RNN에이 데이터를 사용하려면 무엇을 사용해

    2

    1답변

    업데이트 됨 : 최종 프로젝트를위한 신경망을 구축 중이며 도움이 필요합니다. 저는 스페인어 텍스트에 대한 감정 분석을 수행하기 위해 rnn을 만들려고합니다. 나는 약 20 만 표시된 트윗을하고 난 스페인이 데이터 집합을 & 벡터화를 내장으로 word2vec를 사용하여 벡터화 : 내가 중복을 삭제하고 교육 및 테스트 집합으로 데이터 집합을 분할합니다. 벡터화

    0

    1답변

    RNN을 사용하여 시계열 예측과 함께 작동하려면 this repo을 따르고있었습니다. 그러나이 레포에서는 테스트 오류가 약 24 % 정도 발생했습니다. 그래서 예측 정확도를 향상시키는 방법으로 다중 레이어 LSTM 모델을 시도했습니다. import numpy as np import tensorflow as tf from tensorflow.contrib

    0

    2답변

    많은 RNN 클래스 (BasicRNNCell, LSTMCell 등)의 생성자는 num_units이라는 인수를 허용합니다. 셀의 단위 수를 설정합니다. 나는 RNN이 순서대로 처리해야하는 요소의 수를 확인했다. 따라서 RNN에서 길이 N의 시퀀스를 처리하려면 셀당 N 단위가 필요합니다. 이 올바른지? RNN 장치 란 무엇입니까?

    0

    1답변

    Keras에서 RNN에 대한 가변 크기 입력 시퀀스를 처리하는 두 가지 가능한 솔루션을 발견했습니다. 솔루션 하나 : input = Input(shape=(None, num_classes)) 는 내가 훈련과 검증을 모두 입력으로 어떤 순서 크기를 넣을 수 있습니다. 솔루션이 : 솔루션 input = Input(shape=(max_seq_length, n

    0

    1답변

    나는 N 개의 관측치와 F 특징을 가진 timeseries 데이터 세트를 가지고 있습니다. 모든 기능은 매니페스트 (1) 또는 매니페스트 (0) 중 하나 일 수 있습니다. 그래서 데이터 세트는 다음과 같이 보일 것이다 : T F1 F2 F3 F4 F5 ... F 0 1 0 0 1 0 0 1 0 1 0 0 1 1 2 0 0 0 1

    0

    1답변

    나는 tensorflow를 사용하여 RDD 인코더와 디코더를 코딩하고 서로 다른 길이의 시퀀스 입력을 사용하려고하므로 인코더와 디코더가 모두 동적 일 수 있기를 바랍니다. 또한, 디코더 입력은 페이지 3의 그림 (Related Paper 참조)과 유사한 엔코더 최종 숨김 상태 (컨텍스트 벡터)에 의해 컨디셔닝됩니다. 디코더는 이전 출력 및 컨텍스트 벡터를에

    -1

    1답변

    내 응용 프로그램 시나리오 시계열 데이터 세트를 처리하여 이전 Pattern recognition in time series 유사하다, 나는이에 유사 패턴을 감지 하시겠습니까 여기에 표시된대로 예로서 샘플 시간 시리즈, 나는 패턴을 감지 할 수 있도록하고 싶습니다 : 하지만 파이썬과 LSTM과 함께하고 싶어. RNN 시계열과 단어 분류에 대한 자료를 읽었습

    0

    1답변

    신경망과 LSTM을 처음 사용하므로 여기에서 도움이 필요합니다. 나는 다양한 시간 길이의 100 파일이 있으며 각 파일에는 각각 13 개의 피쳐가 있습니다. 각 파일은 출력 클래스를 나타냅니다. 이제 이러한 timeseries 파일을 분류 할 수있는 LSTM 네트워크가 필요합니다. 어떻게해야합니까? 데이터를 어떻게 처리/준비해야합니까? 네트워크 입력은 어떻

    2

    1답변

    cpu에서 textsum 교육 코드 (https://github.com/tensorflow/models/tree/master/research/textsum)는 완벽하게 실행됩니다. CPU에 다시 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention.py#L84