2017-12-11 10 views
0

나는 라자냐 기능의 작동 메커니즘을 모른다. 아래 코드는 입니다.생성자 함수에 정의 된 self.scale 변수는 상수입니까?

class WScaleLayer(lasagne.layers.Layer): 
    def __init__(self, incoming, **kwargs): 
     super(WScaleLayer, self).__init__(incoming, **kwargs) 
     W = incoming.W.get_value() 
     scale = np.sqrt(np.mean(W ** 2)) 
     incoming.W.set_value(W/scale) 
     self.scale = self.add_param(scale,(), name='scale', trainable=False) 
     self.b = None 
     if hasattr(incoming, 'b') and incoming.b is not None: 
      b = incoming.b.get_value() 
      self.b = self.add_param(b, b.shape, name='b', regularizable=False) 
      del incoming.params[incoming.b] 
      incoming.b = None 
     self.nonlinearity = lasagne.nonlinearities.linear 
     if hasattr(incoming, 'nonlinearity') and incoming.nonlinearity is not None: 
      self.nonlinearity = incoming.nonlinearity 
      incoming.nonlinearity = lasagne.nonlinearities.linear 

    def get_output_for(self, v, **kwargs): 
     v = v * self.scale 
     if self.b is not None: 
      pattern = ['x', 0] + ['x'] * (v.ndim - 2) 
      v = v + self.b.dimshuffle(*pattern) 
return self.nonlinearity(v) 

당신은 self.scale 초기화 후 교육 과정에서 일정시킬 수 있습니까?

답변

0

저는 라자냐 전문가는 아니지만, 이상한 일을 제외하고는 self.scale이 훈련 중에 변경되어서는 안됩니다.

하지만이 코드는 매우 이상합니다. 들어오는 분동의 초기 값을 사용하여 눈금을 초기화합니다. 그게 니가 원하는거야?