-2

나는 앙상블 방법을 배우려고하고 있으며, 무작위 포리스트와 같은 일반적인 기계 학습 방법 위에 ada-boosting을 구축 할 수 있다는 것을 알게되었습니다. 이 방법은 더 정확한 분류 모델을 구축하기 위해 훈련 세트에서 잘못 분류 된 데이터를 사용할 수 있습니다.R에서 앙상블 방법으로 ada boosting을 사용하는 방법?

그러나 온라인으로 검색했지만 구현에 대한 답변을 찾을 수 없습니다.

오류를 최소화하기 위해 분류 문제에 대해 임의의 포리스트 위에 ada-boosting을 구축하는 방법을 궁금합니다. 기차

테스트 세트 (DF) : 테스트

와라는 다양한 기능 : 기능

하자 그냥이

트레이닝 세트 (DF)가 말한다.

가와 분류가 호출 : 결과 (기차 $의 결과)

내 일반 모델 (캐럿 패키지를 사용 가정) 될 것이다 :

mymodel_rf < -train (기차 [결과], 기차 [ 기능], 메서드 = "rf", trControl = ...)

앞으로 이동하는 방법? 이것의 결과를 사용하여 ada-boosting 방법을 만들까요?

+0

임의의 포리스트와 adaboost는 다른 앙상블 방법입니다. 그러나 adaboost에 대해 이야기하면 데이터 포인트에 가중치를 부여하고 계속 업데이트합니다. 가중치를 업데이트하는 데 관련된 몇 가지 수학이 있습니다. 다음 링크를 따라 알고리즘 구현 방법을 알 수 있습니다. https://courses.cs.washington.edu/courses/cse446/17wi/slides/boosting-kNNclassification-annotated.pdf https : // courses. cs.washington.edu/courses/cse546/13au/slides/decision-trees-annotated.pdf – frank

+0

나는 ada-boosting의 일반적인 구현을 찾고 있지 않습니다. 나는 두 알고리즘의 앙상블을 찾고있다. 너트 껍질에서, 나는 무작위적인 숲의 결과를 어떻게 ADA-boosting으로 전달할 수 있는지 알고 싶다. 주어진 ada-boosting 목표는 이전 훈련 (예를 들어, 임의의 숲)에서 잘못 분류 된 데이터를 대상으로, 임의의 포리스트에서 잘못 분류 된 데이터를 ada-boosting으로 전달하는 방법을 알고 싶습니다. –

+0

2 초 동안 인터넷 검색이이 자습서로 안내됩니다. https://cran.r-project.org/web/packages/caretEnsemble/vignettes/caretEnsemble-intro.html – Zephro

답변

0

'꼭대기에 서'라고하는 것이 무엇인지 모르겠으나 RF는 결과를 알려주고 Adaboost는 결과를 알려줍니다. 이 두 가지를 앙상블하려는 경우 결과의 통계 모드를 가져옵니다.

Adaboost와 Random Forest는 둘 다 앙상블 기술입니다. 이 기술은 다수의 약한 분류기를 구축하고 평균 또는 모드를 취하여이를 강력한 분류기로 결합하는 것입니다.