1열
1답변
LSTM (중첩 된) 내의 Tensorflow 시퀀스 - 시퀀스 LSTM
5열
1답변
word2vec : CBOW & skip-gram 성능 wrt 훈련 데이터 세트 크기
2열
1답변
RNN으로 보내기 전에 토큰 , <unknown>, <go>, <EOS>의 단어 벡터는 무엇이되어야합니까?
4열
2답변
1열
1답변
단어 삽입 모델에서 관계를 표시하기 위해 더 큰 벡터 공간이 필요한 이유는 무엇입니까?
3열
2답변
word2vec를 사용하여 주어진 단어의 단어 embeddings 벡터와 컨텍스트 벡터를 얻는 방법?
3열
2답변
tf.train.range_input_producer (epoch_size, shuffle = True)가 CPU/GPU로드를 종료하거나 유도하지 않습니다.