저는 MXNet을 처음 사용합니다 (저는 Python3에서 사용 중입니다)MXNet : nn.Activation vs nd.relu?
자습서 시리즈에서는 자신 만의 gluon
blocks을 정의 할 것을 권장합니다.
class CNN1D(mx.gluon.Block):
def __init__(self, **kwargs):
super(CNN1D, self).__init__(**kwargs)
with self.name_scope():
self.cnn = mx.gluon.nn.Conv1D(10, 1)
self.bn = mx.gluon.nn.BatchNorm()
self.ramp = mx.gluon.nn.Activation(activation='relu')
def forward(self, x):
x = mx.nd.relu(self.cnn(x))
x = mx.nd.relu(self.bn(x))
x = mx.nd.relu(self.ramp(x))
return x
이 자신의 예제의 구조를 거울 :
그래서 이것이 당신의 블록 (공통 회선 구조)라고 할 수 있습니다. mx.nd.relu
대 mx.gluon.nn.Activation
의 차이점은 무엇입니까?
mx.gluon.nn.Activation(activation=<act>)
이 NDArray
모듈에서 기본 활성화의 호스트를 호출하는 래퍼 것 같습니다
x = self.ramp(x)
대신
x = mx.nd.relu(self.ramp(x))
명확한 답변을 추가했습니다. –