연속 매트릭스 : 내가 뭘하고 싶은 것은의 batch_size 수를 얻을 수 tensor1에 [max_time, 100] dimensional 매트릭스를 대응하는 행렬 곱셈을 얻을 tensor2의 모든 [100] dimensional 벡터입니다 tensor1 => shape(?, ?, 100) # corresponds to [batch_size, max_t
예제의 seq2seq_model.py 코드에서주의 마스크를 계산하는 데 사용 된 attention() 메서드와 같음 시퀀스 간 코드의 TensorFlow 코드가 호출되지 않음 디코딩. 누구든지 해결 방법을 알고 있습니까? 비슷한 질문이 제기되었습니다 : Visualizing attention activation in Tensorflow,하지만 내게 해독하는
입력 벡터/매트릭스 인 N = W1 * Tanh(W2 * I) 형태의 신경 회로망이 있습니다. 이 가중치를 배울 때 출력은 특정 형식을가집니다. 그러나 정규화 레이어를 추가하면 (예 : N' = Softmax(W1 * Tanh(W2 * I))) N '의 출력 벡터에서 단일 요소는 1에 가까우면서 나머지는 거의 0입니다. SoftMax()뿐만 아니라 모든 정
시퀀스 분류를위한주의 메커니즘을 사용하여 양방향 RNN을 작성하려고합니다. 도우미 기능을 이해하는 데 몇 가지 문제가 있습니다. 훈련에 사용 된 것은 디코더 입력이 필요하다는 것을 알았지 만 전체 시퀀스의 단일 레이블을 원하기 때문에 정확히 입력해야 할 항목을 알지 못합니다. 이것은 지금까지 구축 한 구조이다 # Encoder LSTM cells
lstm