이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.
모델 개발과 평가
고품질 회귀 모델을 개발하는 경우 적합한 특징(또는 예측 변수)을 선택하고, 하이퍼파라미터(데이터에 피팅되지 않는 모델 모수)를 조율하고, 잔차 진단을 통해 모델 가정을 평가해야 합니다.
하이퍼파라미터의 값을 선택하고 선택한 값을 사용하여 모델에 대한 교차 검증을 반복하는 방식으로 하이퍼파라미터를 조율할 수 있습니다. 이 과정을 통해 여러 개의 모델이 생성되며, 이러한 모델 중에서 가장 적합한 모델이 추정된 일반화 오차를 최소화하는 모델일 수 있습니다. 예를 들어, SVM 모델을 조정하려면 상자 제약 조건과 커널 스케일의 집합을 선택하고, 값의 쌍 각각에 대해 모델을 교차 검증한 후 10겹 교차 검증된 평균제곱오차 추정값과 비교하십시오.
회귀 모델을 훈련시키기 전에 새로운 특징을 가공 및 처리하려면 genrfeatures
를 사용하십시오.
회귀 모델을 대화형 방식으로 만들고 평가하려면 회귀 학습기 앱을 사용하십시오.
조정된 하이퍼파라미터를 가진 모델을 자동으로 선택하려면 fitrauto
를 사용하십시오. 이 함수는 다양한 하이퍼파라미터 값으로 회귀 모델 유형을 선택해 보고 잘 수행될 것으로 예상되는 최종 모델을 반환합니다. 어떤 회귀 모델 유형이 데이터에 가장 적합한지 확신하지 못할 경우 fitrauto
를 사용하십시오.
Statistics and Machine Learning Toolbox™에서 제공되는 특정 비모수적 회귀 함수는 베이즈 최적화, 그리드 탐색 또는 임의 탐색을 통해 자동 하이퍼파라미터 조율 기능을 제공합니다. 베이즈 최적화를 구현하는 메인 함수 bayesopt
는 여러 다른 응용 사례에 사용할 수 있을 정도로 유연합니다. 자세한 내용은 Bayesian Optimization Workflow 항목을 참조하십시오.
회귀 모델을 해석하려면 lime
, shapley
, plotPartialDependence
를 사용할 수 있습니다.
앱
회귀 학습기 | 머신러닝 지도 학습을 사용하여 데이터를 예측하도록 회귀 모델 훈련시키기 |
함수
객체
도움말 항목
회귀 학습기 앱 워크플로
- 회귀 학습기 앱에서 회귀 모델 훈련시키기
자동화된 훈련, 수동 훈련, 병렬 훈련 등 회귀 모델을 훈련시키고 비교하고 향상시킬 수 있는 워크플로입니다. - Choose Regression Model Options
In Regression Learner, automatically train a selection of models, or compare and tune options of linear regression models, regression trees, support vector machines, Gaussian process regression models, kernel approximation models, ensembles of regression trees, and regression neural networks. - Feature Selection and Feature Transformation Using Regression Learner App
Identify useful predictors using plots or feature ranking algorithms, select features to include, and transform features using PCA in Regression Learner. - 회귀 학습기의 모델 성능 시각화 및 평가하기
모델 메트릭을 비교하고 결과를 시각화합니다.
특징 선택
- Introduction to Feature Selection
Learn about feature selection algorithms and explore the functions available for feature selection. - Sequential Feature Selection
This topic introduces sequential feature selection and provides an example that selects features sequentially using a custom criterion and thesequentialfs
function. - Neighborhood Component Analysis (NCA) Feature Selection
Neighborhood component analysis (NCA) is a non-parametric method for selecting features with the goal of maximizing prediction accuracy of regression and classification algorithms. - Robust Feature Selection Using NCA for Regression
Perform feature selection that is robust to outliers using a custom robust loss function in NCA. - Select Predictors for Random Forests
Select split-predictors for random forests using interaction test algorithm.
특징 엔지니어링
- Automated Feature Engineering for Regression
Usegenrfeatures
to engineer new features before training a regression model. Before making predictions on new data, apply the same feature transformations to the new data set.
자동 모델 선택
- Automated Regression Model Selection with Bayesian and ASHA Optimization
Usefitrauto
to automatically try a selection of regression model types with different hyperparameter values, given training predictor and response data.
하이퍼파라미터 최적화
- Bayesian Optimization Workflow
Perform Bayesian optimization using a fit function or by callingbayesopt
directly. - Variables for a Bayesian Optimization
Create variables for Bayesian optimization. - Bayesian Optimization Objective Functions
Create the objective function for Bayesian optimization. - Constraints in Bayesian Optimization
Set different types of constraints for Bayesian optimization. - Optimize a Boosted Regression Ensemble
Minimize cross-validation loss of a regression ensemble. - Bayesian Optimization Plot Functions
Visually monitor a Bayesian optimization. - Bayesian Optimization Output Functions
Monitor a Bayesian optimization. - 베이즈 최적화 알고리즘
베이즈 최적화의 기본 알고리즘을 이해합니다. - Parallel Bayesian Optimization
How Bayesian optimization works in parallel.
모델 해석
- Interpret Machine Learning Models
Explain model predictions using thelime
andshapley
objects and theplotPartialDependence
function. - Shapley Values for Machine Learning Model
Compute Shapley values for a machine learning model using interventional algorithm or conditional algorithm. - Shapley Output Functions
Stop Shapley computations, create plots, save information to your workspace, or perform calculations while usingshapley
.
교차 검증
- Implement Cross-Validation Using Parallel Computing
Speed up cross-validation using parallel computing. - Perform Time Series Direct Forecasting with directforecaster
Perform time series direct forecasting with thedirectforecaster
function. - Manually Perform Time Series Forecasting Using Ensembles of Boosted Regression Trees
Manually perform single-step and multiple-step time series forecasting with ensembles of boosted regression trees.
선형 모델 진단
- 선형 회귀 결과 해석하기
선형 회귀 결과 출력되는 통계량을 표시하고 해석합니다. - 선형 회귀
선형 회귀 모델을 피팅하고 결과를 검토합니다. - Linear Regression with Interaction Effects
Construct and analyze a linear regression model with interaction effects and interpret the results. - Summary of Output and Diagnostic Statistics
Evaluate a fitted model by using model properties and object functions. - F-통계량과 t-통계량
선형 회귀에서 F-통계량은 모델 또는 모델 성분의 유의성을 검정하는 분산분석(ANOVA) 방식에 대한 검정 통계량입니다. t-통계량은 회귀 계수에 대한 추론을 할 때 유용합니다. - 결정계수(R 제곱)
결정계수(R 제곱)는 선형 회귀 모델에서 독립 변수 X로 설명되는 응답 변수 y의 비례적인 변동량을 나타냅니다. - 계수 표준 오차 및 신뢰구간
추정된 계수 분산 및 공분산은 회귀 계수 추정값의 정밀도를 캡처합니다. - Residuals
Residuals are useful for detecting outlying y values and checking the linear regression assumptions with respect to the error term in the regression model. - Durbin-Watson Test
The Durbin-Watson test assesses whether or not there is autocorrelation among the residuals of time series data. - Cook’s Distance
Cook's distance is useful for identifying outliers in the X values (observations for predictor variables). - Hat Matrix and Leverage
The hat matrix provides a measure of leverage. - Delete-1 Statistics
Delete-1 change in covariance (CovRatio
) identifies the observations that are influential in the regression fit.
일반화 선형 모델 진단
- Generalized Linear Models
Generalized linear models use linear methods to describe a potentially nonlinear relationship between predictor terms and a response variable.
비선형 모델 진단
- Nonlinear Regression
Parametric nonlinear models represent the relationship between a continuous response variable and one or more continuous predictor variables.