2017-11-22 12 views
0

최대 풀링 된 컨볼 루션 레이어 출력에 드롭 아웃을 적용한 후 조밀 한 레이어를 추가하려고합니다.tensorflow에서 조밀 한 레이어의 치수 오류

나는 다음과 같은 tensorflow 코드를 파이썬으로 작성했다. 필터의 수는 128이며, LEN (filter_sizes)는 조밀 한 층의 적용 후 문제에 직면 3

pooled_outputs = [] 
    for i, filter_size in enumerate(filter_sizes): 
     with tf.name_scope("conv-maxpool-%s" % filter_size): 

      # Convolution Layer 
      filter_shape = [filter_size, embedding_size, 1, num_filters] 
      W = tf.Variable(tf.truncated_normal(filter_shape, stddev=0.1), name="W") 
      b = tf.Variable(tf.constant(0.1, shape=[num_filters]), name="b") 
      conv = tf.nn.conv2d(
       self.embedded_chars_expanded, 
       W, 
       strides=[1, 1, 1, 1], 
       padding="VALID", 
       name="conv") 

      # Applying batch normalization 
      # h = tf.contrib.layers.batch_norm(conv, center=True, scale=True, is_training=True) 

      # Apply nonlinearity 
      h1 = tf.nn.relu(tf.nn.bias_add(conv, b), name="relu") 

      # Maxpooling over the outputs 
      pooled = tf.nn.max_pool(
       h1, 
       ksize=[1, sequence_length - filter_size + 1, 1, 1], 
       strides=[1, 1, 1, 1], 
       padding='VALID', 
       name="pool") 
      pooled_outputs.append(pooled) 

    # Combine all the pooled features 
    num_filters_total = num_filters * len(filter_sizes) 
    self.h_pool = tf.concat(pooled_outputs, 3) 
    self.h_pool_flat = tf.reshape(self.h_pool, [-1, num_filters_total]) 

    # Add dropout 
    with tf.name_scope("dropout"): 
     #self.h_drop = tf.nn.dropout(dense, self.dropout_keep_prob) 
     self.h_drop = tf.nn.dropout(self.h_pool_flat, self.dropout_keep_prob) 

     # Adding dense layer 
    dense = tf.layers.dense(self.h_drop, units=num_classes, activation=tf.nn.relu) 

입니다.

Dimensions must be equal, but are 11 and 384 for 'output/scores/MatMul' (op: 'MatMul') with input shapes: [?,11], [384,11] 

사람이 좀 도와 주 시겠어요 : 오류가

다음은?

답변

0

오류는 행렬 색인과 관련이 있습니다. tensorflow가 제공하는 xw_plus_b 함수를 사용하고 잘못된 곱셈을위한 행렬의 차원을 사용했습니다.