본문 바로가기
반응형

XAI3

[딥러닝 with Python] SHAP란? (SHapley Additive exPlanations) 1. SHAP란? - SHAP는 SHapley Addtivie exPlanations의 줄임말로, 머신러닝 모델의 예측 결과를 개별 feature의 기여도(additive contribution)으로 나누어 설명하는 설명가능한 AI(XAI) 기법 중 하나입니다. - SHAP는 게임 이론의 Shapley value를 기반으로 하며, 복잡한 모델이 특정한 예측값을 내린 이유를 수학적으로 공정하게 설명하는 방법입니다. -SHAP의 목적은 다음 질문에 대답하기 위한 것입니다."이 모델은 왜 이 샘플에 대해 이런 예측을 하였는가?"어떤 feature가 예측을 높였고, 어떤 feature가 낮췄는가?""이 예측값은 기본값에서 얼마나 벗어났고, 어떤 요인으로 그렇게 되었지?" -SHAP의 핵심 아이디어는 * 예측 모.. 2025. 6. 12.
[딥러닝 with Python] XAI란? (eXplainable AI / 설명가능한 인공지능) Explainable AI(XAI)는 복잡한 인공지능 모델의 의사결정 과정을 사람이 이해할 수 있도록 설명해주는 기술입니다. 이 포스팅에서는 XAI의 필요성부터 접근 방식, 최신 트렌드까지 전체 맥락을 정리해보고자 합니다. 1. 왜 Explainable AI가 필요한가?- AI에 대한 신뢰의 위기 * AI가 내리는 결정의 이유를 알 수 없다면 그 모델을 실무에 적용하기는 어렵습니다. * 특히 의료, 금용, 법률 등 고위험 분야에서는 설명가능성의 부재(absence of explanation)는 규제와 신뢰의 가장 큰 장벽이 됩니다. * 대표적인 신뢰 문제의 예시는 아래와 같습니다. 의료 진단 - 왜 다음과 같은 증상이 진단되었는지 이유를 알기 어려움 COMPAS 사례 - 2016년 미 법원 재범.. 2025. 6. 11.
[딥러닝 with Python] LIME이란? (Local Interpretable Model-Agnostic Explanations) / Google Colab으로 LIME 구현해보기 1. LIME이란?- LIME은 Local Interpretable Model Agnostic Explanations의 줄임말로, 복잡한 인공지능 모델의 Black box문제를 해결하고 입력과 출력의 관계에 집중하여 모델의 결과에 대한 해석력을 제공하는 모델입니다. - 현대의 딥러닝, 앙상블 모델 등 높은 정확도를 얻기 위해서는 모델이 점차 더 복잡해지고 이러 인해 설명가능성이 부족해지고 있습니다. - 이러한 설명가능성의 부재는 모델에 대한 신뢰도 / 수용 가능성 등에 문제를 일으키게 되는데요.- 특히, 모델이 제시하는 결과물은 복잡한 행렬연산과 미분의 상호작용에 따른 결과물이기에 사람이 이해하기에는 어렵습니다. - 이로 인해 제안된 방법이 LIME 입니다. -LIME의 핵심 아이디어는 다음과 같습니.. 2025. 6. 7.
반응형