2012-05-21 3 views
0

AdaBoost가 각각의 반복에 대해 약한 분류자를 강력한 분류 자로 결합하는 방법에 대한 질문이 있습니다. 약한 분류 알고리즘으로 C4.5 알고리즘을 사용합니다. 그리고 각 반복에 대해 서로 다른 의사 결정 트리와 알파를 생성했습니다. 어떻게 이러한 모델을 하나의 강력한 분류기로 결합 할 수 있습니까? 알고리즘에서 그들을 결합하기 위해, adaboost는 공식 alpha * hyphotesis를 사용한다고 들었습니다. 그 수식과 어떻게 조합 할 수 있습니까?AdaBoost 알고리즘을 사용하여 여러 개의 약한 분류 기준을 하나의 강력한 분류 기준으로 결합하는 방법은 무엇입니까?

답변

0

쉽습니다. 알파는 다른 방식으로 계산 될 수 있습니다. 그의 논문에서 비올라는 말했다 :

alpha= log(1/beta). 
beta= wr/(1-wr). 
wr is weighted error. 
+1

무엇이 베타 변수인가? – mrgloom

+0

베타는 알파 계산에 사용되는 중간 변수입니다. – Mbt925