두 단어 임베딩이 있습니다. 미리 훈련 된 장갑과 내가 의료 관련 문서에 대해 훈련 한 장갑. 사전 훈련 된 벡터는 더 많은 단어를 포함하지만 내 단어 벡터는 의학 용어를 더 잘 나타냅니다. 두 가지 임베딩 세트를 융합했습니다.훈련 된 단어 임베딩을 위해 전문 주제에 대해 훈련 된 단어 임베드 병합
글러브 (200d)에는 4 백만 단어가 있으며, 약 10 %는 제 자신의 퍼가기 (또한 200d)에서 발견됩니다. 두 가지를 연결하는 것과 같은 단순한 것 (0을 많이 발생시키는 것) 대신, 글러브 공간에서 내 자신의 임베딩 공간으로 벡터를 매핑하는 신경망을 만드는 것이 도움이되는지 궁금합니다. 특히 :
from keras.models import Sequential
from keras.layers import Dense, Activation
model = Sequential()
model.add(Dense(units=100, input_dim=200))
model.add(Activation('sigmoid'))
model.add(Dense(units=50))
model.add(Activation('sigmoid'))
model.add(Dense(units=100))
model.add(Activation('sigmoid'))
model.add(Dense(units=200))
model.add(Activation('linear'))
model.compile(optimizer='rmsprop',
loss='mse')
model.fit(x_train, y_train, epochs=10, batch_size=32)
결과는 매우 가난, 그리고 나는 방법이 올바르지 않아 또는 모델이 제대로 조정되지 않으면 그것이 궁금.