gensim

    2

    1답변

    자이 썬 2.7.1을 사용하는 임. 잘 작동합니다. gensim을 설치해야합니다. 이 라이브러리는 자이 썬에서 작동합니까? 는

    0

    1답변

    에서 word2index을받는 방법은, 즉, 예를 들어, model.index2word[2], 우리가 파생 수있는 방법을 거꾸로 dictinoary 그것은 genism처럼 보인다 model = KeyedVectors.load_word2vec_format('word2vec.50d.txt', binary=False) 는 색인에서 단어에 대한 매핑을 제공 g

    0

    1답변

    Doc2Vec을 처음 사용했습니다. 저자의 작품을 분류하려고합니다. 나는 레이블이 달린 문장 (단락 또는 지정된 길이의 문자열)이있는 모델을 훈련 시켰는데, words = 단락의 단어 목록과 tags = 저자의 이름입니다. 제 경우에는 두 명의 작가 만 있습니다. 훈련 된 모델에서 docvecs 특성에 액세스를 시도했지만 모델을 교육 할 때 두 태그에 해당

    0

    1답변

    gensim doc2vec (~ 500K 벡터 150 차원)를 사용하여 생성 된 문서 벡터 집합이 있습니다. 클러스터링 알고리즘을 실행할 수있는 n * n 유사도 행렬을 생성하려는 비슷한 문서를 클러스터링하고 싶습니다. 나는이 링크 https://github.com/RaRe-Technologies/gensim/issues/140의 지침을 gensim.sim

    0

    1답변

    word2vec 모델 (음 샘플링을 사용한 스킵 그램)을 만들려고하면 다음과 같이 3 개의 파일을 출력으로 받았습니다. 이것이 내가 하나 개의 모델 (NO NPY 파일)을받은 word2vec 내 이전 테스트 예제로 발생하는 이유 word2vec (File) word2vec.syn1nef.npy (NPY file) word2vec.wv.syn0.npy (

    0

    1답변

    나는 아래의 코드 대신 "sim_model.pkl"지고의 sim_model = gensim.similarities.MatrixSimilarity(corp) sim_model.save("sim_model.pkl") 을 실행할 때 나는 두 개의 파일 "sim_model.pkl.index.npy"와 "sim_model를 얻을. pkl "이 이유는 무엇입니까

    0

    1답변

    아래에서 언급 한 내 코퍼스의 tf-idf 점수를 계산할 때 Gensim을 사용하고 있습니다. corpus=['human interface computer', 'survey user computer system response time', 'eps user interface system', 'system human system eps', 'user

    0

    1답변

    print(model.docvecs['recipe__11'])을 사용하여 doc2vec의 주어진 태그에 대한 문서 벡터를 얻는 것을 알고 있습니다. 내 문서 벡터 중 하나 요리법 (태그 recipe__로 시작), 신문 (태그 news__로 시작) 또는 성분 (태그 ingre__ 시작) 가 지금은 조리법의 모든 문서 벡터를 검색 할 수 있습니다. 내 요리법

    1

    1답변

    genf를 사용하여 다음과 같이 tf-idf 값을 계산합니다. texts = [['human', 'interface', 'computer'], ['survey', 'user', 'computer', 'system', 'response', 'time'], ['eps', 'user', 'interface', 'system'], ['system', 'hum

    0

    1답변

    gensim LdaModel 알파 매개 변수를 조정하는 방법 : model = gensim.models.ldamodel.LdaModel(bows, num_topics = 20, id2word = dictionary, passes = 100) 나는 것을 볼 수 있습니다 model.alpha array([ 0.05, 0.05, 0.05, 0.05, 0.0