이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.
분류 앙상블
분류 앙상블은 여러 분류 모델의 가중 조합으로 구성된 예측 모델입니다. 일반적으로, 여러 분류 모델을 조합하면 예측 성능이 높아집니다.
분류 앙상블을 대화형 방식으로 살펴보려면 분류 학습기 앱을 사용하십시오. 명령줄 인터페이스에서 fitcensemble
을 사용하여 분류 트리를 부스팅 또는 배깅하거나 랜덤 포레스트 를 성장시켜 유연성을 높일 수 있습니다. 지원되는 모든 앙상블에 대한 자세한 내용은 Ensemble Algorithms 항목을 참조하십시오. 다중클래스 문제를 이진 분류 문제 앙상블로 줄이려면 오류 수정 출력 코드(ECOC) 모델을 훈련시키십시오. 자세한 내용은 fitcecoc
를 참조하십시오.
LSBoost를 사용하여 회귀 트리를 부스팅하거나 회귀 트리의 랜덤 포레스트를 성장시키려면 회귀 앙상블을 참조하십시오.
앱
분류 학습기 | 머신러닝 지도 학습을 사용하여 데이터를 분류하도록 모델 훈련시키기 |
블록
ClassificationEnsemble Predict | Classify observations using ensemble of decision trees (R2021a 이후) |
ClassificationECOC Predict | Classify observations using error-correcting output codes (ECOC) classification model (R2023a 이후) |
IncrementalClassificationECOC Predict | Classify observations using incremental ECOC classification model (R2024a 이후) |
함수
객체
클래스
도움말 항목
- Train Ensemble Classifiers Using Classification Learner App
Create and compare ensemble classifiers, and export trained models to make predictions for new data.
- Framework for Ensemble Learning
Obtain highly accurate predictions by using many weak learners.
- Ensemble Algorithms
Learn about different algorithms for ensemble learning.
- 분류 앙상블 훈련시키기
단순 분류 앙상블을 훈련시킵니다.
- Test Ensemble Quality
Learn methods to evaluate the predictive quality of an ensemble.
- Handle Imbalanced Data or Unequal Misclassification Costs in Classification Ensembles
Learn how to set prior class probabilities and misclassification costs.
- Classification with Imbalanced Data
Use the RUSBoost algorithm for classification when one or more classes are over-represented in your data.
- LPBoost and TotalBoost for Small Ensembles
Create small ensembles by using the LPBoost and TotalBoost algorithms.
- Tune RobustBoost
Tune RobustBoost parameters for better predictive accuracy.
- Surrogate Splits
Gain better predictions when you have missing data by using surrogate splits.
- Train Classification Ensemble in Parallel
Train a bagged ensemble in parallel reproducibly.
- Bootstrap Aggregation (Bagging) of Classification Trees Using TreeBagger
Create a
TreeBagger
ensemble for classification. - Credit Rating by Bagging Decision Trees
This example shows how to build an automated credit rating tool.
- Random Subspace Classification
Increase the accuracy of classification by using a random subspace ensemble.
- Predict Class Labels Using ClassificationEnsemble Predict Block
Train a classification ensemble model with optimal hyperparameters, and then use the ClassificationEnsemble Predict block for label prediction.
- Predict Class Labels Using ClassificationECOC Predict Block
Train an ECOC classification model, and then use the ClassificationECOC Predict block for label prediction. (R2023a 이후)