Main Content

이 페이지의 최신 내용은 아직 번역되지 않았습니다. 최신 내용은 영문으로 볼 수 있습니다.

모델 개발과 평가

특징 선택, 모델 선택, 하이퍼파라미터 최적화, 교차 검증, 예측 성능 평가 및 분류 정확도 비교 테스트

고품질 예측 분류 모델을 개발하는 경우 적합한 특징(또는 예측 변수)을 선택하고 하이퍼파라미터(추정되지 않은 모델 모수)를 조율해야 합니다.

특정 모델의 하이퍼파라미터를 조율하려면 하이퍼파라미터 값을 선택하고 이들 값을 사용하여 모델을 교차 검증하십시오. 예를 들어, SVM 모델을 조정하려면 상자 제약 조건과 커널 스케일의 집합을 선택하고, 값의 쌍 각각에 대해 모델을 교차 검증하십시오. 특정 Statistics and Machine Learning Toolbox™ 분류 함수는 베이즈 최적화, 그리드 탐색 또는 임의 탐색을 통해 자동 하이퍼파라미터 조율 기능을 제공합니다. 그러나, 베이즈 최적화를 구현하는 주요 함수 bayesopt은 다른 응용 사례에 사용할 수 있을 정도로 유연합니다. Bayesian Optimization Workflow 항목을 참조하십시오.

특징 선택과 하이퍼파라미터 조율을 통해 여러 모델이 생성될 수 있습니다. 모델 간 k겹 오분류율, ROC(수신자 조작 특성) 곡선 또는 혼동 행렬을 비교할 수 있습니다. 또는, 통계 검정을 수행하여 어떠한 분류 모델이 다른 모델보다 성능이 훨씬 더 뛰어난지 여부를 파악할 수 있습니다.

조정된 하이퍼파라미터를 가진 모델을 자동으로 선택하려면 fitcauto를 사용하십시오. 이 함수는 다양한 하이퍼파라미터 값으로 분류 모델 유형을 선택해 보고 새 데이터에서 잘 수행될 것으로 예상되는 최종 모델을 반환합니다. 어떤 분류기 유형이 데이터에 가장 적합한지 확신하지 못할 경우 fitcauto를 사용하십시오.

분류 모델을 대화형 방식으로 만들고 평가하려면 분류 학습기 앱을 사용하십시오.

분류 학습기머신러닝 지도 학습을 사용하여 데이터를 분류하도록 모델 훈련시키기

함수

모두 확장

fscchi2Univariate feature ranking for classification using chi-square tests
fscmrmrRank features for classification using minimum redundancy maximum relevance (MRMR) algorithm
fscncaFeature selection using neighborhood component analysis for classification
oobPermutedPredictorImportancePredictor importance estimates by permutation of out-of-bag predictor observations for random forest of classification trees
predictorImportanceEstimates of predictor importance for classification tree
predictorImportanceEstimates of predictor importance for classification ensemble of decision trees
sequentialfsSequential feature selection using custom criterion
relieffRank importance of predictors using ReliefF or RReliefF algorithm
fitcautoAutomatically select classification model with optimized hyperparameters
bayesoptSelect optimal machine learning hyperparameters using Bayesian optimization
hyperparametersVariable descriptions for optimizing a fit function
optimizableVariableVariable description for bayesopt or other optimizers
crossvalEstimate loss using cross-validation
cvpartition데이터에 대한 교차 검증 분할 생성
repartitionRepartition data for cross-validation
testTest indices for cross-validation
trainingTraining indices for cross-validation
confusionchartCreate confusion matrix chart for classification problem
confusionmat분류 문제에 대한 정오분류표 계산
perfcurve분류기 출력값에 대한 ROC(수신자 조작 특성) 곡선 또는 기타 성능 곡선
testcholdoutCompare predictive accuracies of two classification models
testckfoldCompare accuracies of two classification models by repeated cross-validation

객체

모두 확장

FeatureSelectionNCAClassificationFeature selection for classification using neighborhood component analysis (NCA)
BayesianOptimizationBayesian optimization results

도움말 항목

분류 학습기 앱

분류 학습기 앱에서 분류 모델을 훈련시키기

자동화된 훈련, 수동 훈련, 병렬 훈련 등 분류 모델을 훈련시키고 비교하고 향상시킬 수 있는 워크플로입니다.

Assess Classifier Performance in Classification Learner

Compare model accuracy scores, visualize results by plotting class predictions, and check performance per class in the Confusion Matrix.

Feature Selection and Feature Transformation Using Classification Learner App

Identify useful predictors using plots, manually select features to include, and transform features using PCA in Classification Learner.

특징 선택

Introduction to Feature Selection

Learn about feature selection algorithms and explore the functions available for feature selection.

Sequential Feature Selection

This topic introduces to sequential feature selection and provides an example that selects features sequentially using a custom criterion and the sequentialfs function.

Neighborhood Component Analysis (NCA) Feature Selection

Neighborhood component analysis (NCA) is a non-parametric method for selecting features with the goal of maximizing prediction accuracy of regression and classification algorithms.

Tune Regularization Parameter to Detect Features Using NCA for Classification

This example shows how to tune the regularization parameter in fscnca using cross-validation.

Regularize Discriminant Analysis Classifier

Make a more robust and simpler model by removing predictors without compromising the predictive power of the model.

고차원 데이터를 분류하기 위해 특징 선택하기

이 예제에서는 고차원 데이터를 분류하기 위해 특징을 선택하는 방법을 보여줍니다.

자동 모델 선택

Automated Classifier Selection with Bayesian Optimization

Use fitcauto to automatically try a selection of classification model types with different hyperparameter values, given training predictor and response data.

하이퍼파라미터 최적화

Bayesian Optimization Workflow

Perform Bayesian optimization using a fit function or by calling bayesopt directly.

Variables for a Bayesian Optimization

Create variables for Bayesian optimization.

Bayesian Optimization Objective Functions

Create the objective function for Bayesian optimization.

Constraints in Bayesian Optimization

Set different types of constraints for Bayesian optimization.

Optimize a Cross-Validated SVM Classifier Using bayesopt

Minimize cross-validation loss using Bayesian Optimization.

Optimize an SVM Classifier Fit Using Bayesian Optimization

Minimize cross-validation loss using the OptimizeParameters name-value pair in a fitting function.

Bayesian Optimization Plot Functions

Visually monitor a Bayesian optimization.

Bayesian Optimization Output Functions

Monitor a Bayesian optimization.

Bayesian Optimization Algorithm

Understand the underlying algorithms for Bayesian optimization.

Parallel Bayesian Optimization

How Bayesian optimization works in parallel.

교차 검증

Implement Cross-Validation Using Parallel Computing

Speed up cross-validation using parallel computing.

분류 성능 평가

Performance Curves

Examine the performance of a classification algorithm on a specific test data set using a receiver operating characteristic curve.