2017-11-29 20 views
0

이 코드는 word2vec를 생성하고 순진한 베이 즈 분류자를 훈련시키는 데 사용됩니다. 나는 word2vec를 생성 할 수 있었고 similarity 함수를 성공적으로 사용할 수 있었다. 다음 단계에서는 naive bayes 분류자를 훈련시키기 위해 word2vec를 사용하고 싶다. 현재 테스트 및 교육에서 데이터를 줄이려고 할 때 오류가 발생했습니다. 어떻게하면 훈련 데이터로 사용할 수 있도록 word2vec 모델을 배열로 변환합니까? PD 수입 gensimword2vec를 사용하여 분류자를 훈련시키는 방법은 무엇입니까?

# Importing the dataset 
dataset = pd.read_csv('Restaurant_Reviews.tsv', delimiter = '\t', quoting = 3) 

# Cleaning the texts 
import re 
import nltk 
nltk.download('stopwords') 
from nltk.corpus import stopwords 
from nltk.stem.porter import PorterStemmer 
corpus = [] 
for i in range(0, 1000): 
    review = re.sub('[^a-zA-Z]', ' ', dataset['Review'][i]) 
    review = review.lower() 
    review = review.split() 
    ps = PorterStemmer() 
    review = [ps.stem(word) for word in review if not word in set(stopwords.words('english'))] 
# for word2vec we want an array of vectors 

    corpus.append(review) 

#print(corpus) 
X = gensim.models.Word2Vec(corpus, min_count=1,size=1000) 
#print (X.most_similar("love")) 


#embedding_matrix = np.zeros(len(X.wv.vocab), dtype='float32') 
#for i in range(len(X.wv.vocab)): 
# embedding_vector = X.wv[X.wv.index2word[i]] 
# if embedding_vector is not None: 
#  embedding_matrix[i] = embedding_vector 

# Creating the Bag of Words model 
#from sklearn.feature_extraction.text import CountVectorizer 
#cv = CountVectorizer(max_features = 1500) 
#X = cv.fit_transform(corpus).toarray() 
y = dataset.iloc[:, 1].values 

# Splitting the dataset into the Training set and Test set 
from sklearn.cross_validation import train_test_split 
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.20, random_state = 0) 

# Fitting Naive Bayes to the Training set 
from sklearn.naive_bayes import GaussianNB 
classifier = GaussianNB() 
classifier.fit(X_train, y_train) 

# Predicting the Test set results 
y_pred = classifier.predict(X_test) 

# Making the Confusion Matrix 
from sklearn.metrics import confusion_matrix 
cm = confusion_matrix(y_test, y_pred) 

It gives an error on line - 
from sklearn.cross_validation import train_test_split 
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.20, random_state = 0) 
TypeError: Expected sequence or array-like, got <class 'gensim.models.word2vec.Word2Vec'> 
+0

embeddings를 사용하여 코퍼스를 벡터로 변환해야합니다. https://stackoverflow.com/questions/29760935/how-to-get-vector-for-a-sentence-from-the-word2vec-of- 토큰 - 인 - 문장 –

답변

0

Word2Vec 워드 묻어 만 제공 등 PLT 수입 팬더와 같은 NP 수입 matplotlib.pyplot과 라이브러리 수입 NumPy와 가져 오기

#. 삽입으로 문서의 특성을 지정하려는 경우 분류에 사용할 수있는 D 차원 벡터를 갖기 위해 각 문서의 모든 단어를 포함하는 경우 평균화/합계/최대 연산을 수행해야합니다. 자세한 내용은 herethere을 참조하십시오.

그렇지 않으면 Doc2Vec 모델을 사용하여 gensim이 매우 훌륭한 공급자를 제공하는 문서 삽입을 직접 생성 할 수 있습니다.