word2vec (word embedding) 아키텍처를 이해하려고합니다. 그러나 그것에 대해 질문이 있습니다.단어 임베딩에 대한 질문 (word2vec)
먼저 word2vec 모델이 로그 선형 모델 인 이유는 무엇입니까? 출력 레이어에서 소프트 맥스를 사용하기 때문에?
초, 왜 word2vec가 숨겨진 레이어를 제거하나요? 단지 계산상의 복잡성 때문입니까?
세 번째로, 왜 word2vec이 활성화 기능을 사용하지 않습니까? NNLM (신경망 언어 모델)을 비교하십시오.
thx : ->! 나는 내가 원하는 당신의 대답을 재치있게 이해한다. –