모델 개발과 평가
고품질 예측 분류 모델을 개발하는 경우 적합한 특징(또는 예측 변수)을 선택하고 하이퍼파라미터(추정되지 않은 모델 모수)를 조율해야 합니다.
특징 선택과 하이퍼파라미터 조율을 통해 여러 모델이 생성될 수 있습니다. 모델 간 k겹 오분류율, ROC(수신자 조작 특성) 곡선 또는 혼동 행렬을 비교할 수 있습니다. 또는, 통계 검정을 수행하여 어떠한 분류 모델이 다른 모델보다 성능이 훨씬 더 뛰어난지 여부를 파악할 수 있습니다.
분류 모델을 훈련시키기 전에 새로운 특징을 가공 및 처리하려면 gencfeatures
를 사용하십시오.
분류 모델을 대화형 방식으로 만들고 평가하려면 분류 학습기 앱을 사용하십시오.
조정된 하이퍼파라미터를 가진 모델을 자동으로 선택하려면 fitcauto
를 사용하십시오. 이 함수는 다양한 하이퍼파라미터 값으로 분류 모델 유형을 선택해 보고 새 데이터에서 잘 수행될 것으로 예상되는 최종 모델을 반환합니다. 어떤 분류기 유형이 데이터에 가장 적합한지 확신하지 못할 경우 fitcauto
를 사용하십시오.
특정 모델의 하이퍼파라미터를 조율하려면 하이퍼파라미터 값을 선택하고 이들 값을 사용하여 모델을 교차 검증하십시오. 예를 들어, SVM 모델을 조정하려면 상자 제약 조건과 커널 스케일의 집합을 선택하고, 값의 쌍 각각에 대해 모델을 교차 검증하십시오. Statistics and Machine Learning Toolbox™에서 제공되는 특정 분류 함수는 베이즈 최적화, 그리드 탐색 또는 임의 탐색을 통해 자동 하이퍼파라미터 조율 기능을 제공합니다. 베이즈 최적화를 구현하는 메인 함수 bayesopt
는 여러 다른 응용 사례에 사용할 수 있을 정도로 유연합니다. Bayesian Optimization Workflow 항목을 참조하십시오.
분류 모델을 해석하려면 lime
, shapley
또는 plotPartialDependence
를 사용할 수 있습니다.
앱
분류 학습기 | 머신러닝 지도 학습을 사용하여 데이터를 분류하도록 모델 훈련시키기 |
함수
객체
속성
ConfusionMatrixChart Properties | Confusion matrix chart appearance and behavior |
ROCCurve Properties | Receiver operating characteristic (ROC) curve appearance and behavior (R2022a 이후) |
도움말 항목
분류 학습기 앱
- 분류 학습기 앱에서 분류 모델을 훈련시키기
자동화된 훈련, 수동 훈련, 병렬 훈련 등 분류 모델을 훈련시키고 비교하고 향상시킬 수 있는 워크플로입니다. - 분류 학습기의 분류기 성능 시각화 및 평가하기
모델 정확도 값을 비교하고, 클래스 예측값을 플로팅하여 결과를 시각화하고, 혼동행렬에서 클래스별 성능을 검사합니다. - 분류 학습기 앱을 사용한 특징 선택 및 특징 변환
분류 학습기에서 플롯 또는 특징 순위 지정 알고리즘을 사용하여 유용한 예측 변수를 식별하고, 포함할 특징을 선택하고, PCA를 사용하여 특징을 변환합니다.
특징 선택
- Introduction to Feature Selection
Learn about feature selection algorithms and explore the functions available for feature selection. - Sequential Feature Selection
This topic introduces sequential feature selection and provides an example that selects features sequentially using a custom criterion and thesequentialfs
function. - Neighborhood Component Analysis (NCA) Feature Selection
Neighborhood component analysis (NCA) is a non-parametric method for selecting features with the goal of maximizing prediction accuracy of regression and classification algorithms. - Tune Regularization Parameter to Detect Features Using NCA for Classification
This example shows how to tune the regularization parameter infscnca
using cross-validation. - Regularize Discriminant Analysis Classifier
Make a more robust and simpler model by removing predictors without compromising the predictive power of the model. - 고차원 데이터를 분류하기 위해 특징 선택하기
이 예제에서는 고차원 데이터를 분류하기 위해 특징을 선택하는 방법을 보여줍니다.
특징 엔지니어링
- Automated Feature Engineering for Classification
Usegencfeatures
to engineer new features before training a classification model. Before making predictions on new data, apply the same feature transformations to the new data set.
자동 모델 선택
- Automated Classifier Selection with Bayesian and ASHA Optimization
Usefitcauto
to automatically try a selection of classification model types with different hyperparameter values, given training predictor and response data.
하이퍼파라미터 최적화
- Bayesian Optimization Workflow
Perform Bayesian optimization using a fit function or by callingbayesopt
directly. - Variables for a Bayesian Optimization
Create variables for Bayesian optimization. - Bayesian Optimization Objective Functions
Create the objective function for Bayesian optimization. - Constraints in Bayesian Optimization
Set different types of constraints for Bayesian optimization. - bayesopt를 사용하여 교차 검증된 분류기 최적화하기
베이즈 최적화를 사용하여 교차 검증 손실을 최소화합니다. - 베이즈 최적화를 사용하여 분류기 피팅 최적화하기
피팅 함수에서OptimizeParameters
이름-값 인수를 사용하여 교차 검증 손실을 최소화합니다. - Bayesian Optimization Plot Functions
Visually monitor a Bayesian optimization. - Bayesian Optimization Output Functions
Monitor a Bayesian optimization. - 베이즈 최적화 알고리즘
베이즈 최적화의 기본 알고리즘을 이해합니다. - Parallel Bayesian Optimization
How Bayesian optimization works in parallel.
모델 해석
- Interpret Machine Learning Models
Explain model predictions using thelime
andshapley
objects and theplotPartialDependence
function. - Shapley Values for Machine Learning Model
Compute Shapley values for a machine learning model using interventional algorithm or conditional algorithm. - Shapley Output Functions
Stop Shapley computations, create plots, save information to your workspace, or perform calculations while usingshapley
.
교차 검증
- Implement Cross-Validation Using Parallel Computing
Speed up cross-validation using parallel computing.
분류 성능 평가
- ROC Curve and Performance Metrics
Userocmetrics
to examine the performance of a classification algorithm on a test data set. - Performance Curves by perfcurve
Learn how theperfcurve
function computes a receiver operating characteristic (ROC) curve.