이 번역 페이지는 최신 내용을 담고 있지 않습니다. 최신 내용을 영문으로 보려면 여기를 클릭하십시오.
이진 분류의 공정성
이진 분류에서 사회적 편향을 감지하고 완화하기 위해 Statistics and Machine Learning Toolbox™의 fairnessMetrics
, fairnessWeights
, disparateImpactRemover
, fairnessThresholder
함수를 사용할 수 있습니다. 먼저 fairnessMetrics
를 통해 편향 및 그룹 메트릭을 사용하여 데이터 세트 또는 분류 모델의 공정성을 평가합니다. 그런 다음 fairnessWeights
를 사용하여 관측값에 다시 가중치를 부여하거나 disparateImpactRemover
를 사용하여 민감한 특성의 차별적 효과(disparate impact)를 제거하거나 fairnessThresholder
를 사용하여 분류 임계값을 최적화합니다.
fairnessWeights
함수 및 disparateImpactRemover
함수는 분류기를 훈련(또는 재훈련)시키기 전에 예측 변수 데이터를 조정할 수 있는 전처리 기법을 제공합니다. fairnessThresholder
함수는 훈련된 분류기의 예측 경계 근처에서 레이블을 조정하는 후처리 기법을 제공합니다. 최종 모델 동작을 평가하기 위해 fairnessMetrics
함수와 다양한 해석 가능성 함수를 사용할 수 있습니다. 자세한 내용은 Interpret Machine Learning Models 항목을 참조하십시오.
함수
도움말 항목
- Introduction to Fairness in Binary Classification
Detect and mitigate societal bias in machine learning by using the
fairnessMetrics
,fairnessWeights
,disparateImpactRemover
, andfairnessThresholder
functions.
관련 정보
- Explore Fairness Metrics for Credit Scoring Model (Risk Management Toolbox)
- Bias Mitigation in Credit Scoring by Reweighting (Risk Management Toolbox)
- Bias Mitigation in Credit Scoring by Disparate Impact Removal (Risk Management Toolbox)