1. SHAP란?
- SHAP는 SHapley Addtivie exPlanations의 줄임말로, 머신러닝 모델의 예측 결과를 개별 feature의 기여도(additive contribution)으로 나누어 설명하는 설명가능한 AI(XAI) 기법 중 하나입니다.
- SHAP는 게임 이론의 Shapley value를 기반으로 하며, 복잡한 모델이 특정한 예측값을 내린 이유를 수학적으로 공정하게 설명하는 방법입니다.
-SHAP의 목적은 다음 질문에 대답하기 위한 것입니다.
"이 모델은 왜 이 샘플에 대해 이런 예측을 하였는가?
"어떤 feature가 예측을 높였고, 어떤 feature가 낮췄는가?"
"이 예측값은 기본값에서 얼마나 벗어났고, 어떤 요인으로 그렇게 되었지?"
-SHAP의 핵심 아이디어는
* 예측 모델을 게임, feature를 플레이어, 예측값을 보상으로 간주하며
* 모든 feature 조합을 고려하여, 각 feature가 혼자 또는 함께 있을 때 기여한 평균 기여도를 계산하고
* 결과적으로 예측값을 다음과 같이 표현하는 것입니다.
SHAP의 특성은 다음과 같습니다.
* 이론적 기반: 공정한 기여도 분배를 보장하는 Shapely Value 기반
* 일관성 보장: feature 중요도가 높아지면 SHAP 값도 증가(수학적으로 증명됨)
* 모델 독립 / 특정 모드 지원: Tree 기반, Neural Network, SVM 등 모든 모델에 적용가능
* 설명 출력 해석 가능 : additive 형식으로, baseline --> 예측까지 변화량이 명확
댓글