"xgboost.XGBRegressor
은 XGBoost 용 Scikit-Learn Wrapper 인터페이스입니다."xgb.train과 xgb.XGBRegressor (또는 xgb.XGBClassifier)의 차이점은 무엇입니까?
하지만 다른 차이점이 있습니까?
"xgboost.XGBRegressor
은 XGBoost 용 Scikit-Learn Wrapper 인터페이스입니다."xgb.train과 xgb.XGBRegressor (또는 xgb.XGBClassifier)의 차이점은 무엇입니까?
하지만 다른 차이점이 있습니까?
xgboost.train
은 그래디언트 부스팅 방법을 통해 모델을 학습하는 저급 API입니다. DMatrix
을 준비하여 해당 목적 함수 및 파라미터 전달이 (그들이 부르는, Scikit 배우기 형 포장기)
xgboost.XGBRegressor
및 xgboost.XGBClassifier
는 래퍼.
self._Booster = train(params, dmatrix,
self.n_estimators, evals=evals,
early_stopping_rounds=early_stopping_rounds,
evals_result=evals_result, obj=obj, feval=feval,
verbose_eval=verbose)
이 XGBRegressor
및 XGBClassifier
수행 할 수 있습니다 모든이 xgboost.train
기능을 기본 통해 행할 것을 의미한다 : 결국, fit
호출은 간단하게 아래로 비등. 예를 들어, xgboost.train
의 유용한 매개 변수 중 일부는 XGBModel
API에서 지원되지 않습니다. 현저한 차이의 목록이 포함
xgboost.train
callbacks
는 각 반복의 마지막에인가 설정할 수있다.xgboost.train
은 xgb_model
매개 변수를 통한 교육 계속을 허용합니다.xgboost.train
은 평가 함수의 축소뿐만 아니라 최대화도 허용합니다.
매개 변수 이름의 차이, 입력의 차이, 평가 전략의 차이. [python api] (http://xgboost.readthedocs.io/en/latest/python/python_api.html) 및 [github 페이지] (https://github.com/dmlc/xgboost/tree/master)를 살펴보십시오./파이썬 패키지). 이것은 좋은 질문이 아닙니다. 두 가지 방법으로 얻은 결과를 이해하는 데 어려움이 있으면 코드를 사용하여 자세한 질문을하십시오. –