728x90
반응형
Fairness in machine learning
특정 그룹의 사람들에 대한 AI 시스템의 부정적인 결과를 피하는 것이 중요!!
기계 학습의 공정성은 기계 학습 모델을 기반으로 하는 자동화된 의사 결정 프로세스에서 알고리즘 편향을 수정하려는 다양한 시도
기계 학습 프로세스 후 컴퓨터가 내리는 결정이 민감한 것으로 간주되는 변수를 기반으로 하는 경우 불공정한 건으로 간주될 수 있다.
예, 성별, 민족, 성적 취향, 장애 등
Disparate impact (이질적인 영향)
a metric to evaluate fairness(bias)
모니터링 그룹에 대한 유리한 결과의 백분율 대 참조 그룹에 대한 양호한 결과의 백분율로 계산됨
- num_positives: value represents the number of individuals in the group who received a positive outcome
- num_instances: value represents the total number of individuals in the group
일반적으로 threshold value는 0.8이다.
disparate impact가 0.8 미만인 경우 모델은 편향되었다고 볼 수 있다.
만약, 남성이 대출 받을 확률이 80%, 여성이 대출받을 확률이 60%일 때
Disparate impact = 60/90 = 0.75 → 0.8 미만으로 편향되었다.
References
728x90
반응형
'Machine Learning > Machine Learning' 카테고리의 다른 글
[Machine Learning] Active Learning (0) | 2023.03.12 |
---|---|
Ensembler (a python package) (0) | 2022.11.04 |
[Machine Learning] Feature Engineering (0) | 2022.11.01 |
AutoML (Automated Machine Learning) (0) | 2022.11.01 |
Cross Validation(CV, 교차검증) (2) | 2022.10.31 |