문서를 클래스로 분류하기위한 naive bayes 분류기를 구현해야합니다. 그러므로, 클래스에 속한 용어에 대한 조건부 확률을 laplace smoothing과 함께하면, 다음과 같이 나타낼 수 있습니다 :naplace bayes 분류자를위한 Bernoulli 모델을위한 Laplace Smoothing
prob (t | c) = Num (클래스 c의 워드 프로세서에있는 워드 수 +1) Num 클래스 c) + | V |
그 bernoulli 모델은 1 또는 0이고 어휘는 아마도 20000 단어와 같이 매우 큽니다. 그래서 laplace의 평활화는 어휘의 크기가 크기 때문에 정말로 작은 값을 줄지 않을 것입니다. 아니면 잘못된 것을하고 있습니다.
이 링크의 Psuedo 코드에 따르면 : http://nlp.stanford.edu/IR-book/html/htmledition/the-bernoulli-model-1.html, bernoulli 모델의 경우 | V | 대신 2를 추가하면됩니다. 왜 그렇게?
컴퓨터 과학 교환 존재하는지의 1/2의 가능성을 생산하는 결과를 가지고 1 것인가? – MordechayS