DiCE-Extended: 더욱 강력하고 신뢰할 수 있는 인공지능 설명 가능성을 위한 새로운 지평
DiCE-Extended는 기존 CF 설명 방법의 강건성 문제를 해결하여 더욱 신뢰할 수 있고 해석 가능한 AI 시스템 구축에 기여하는 새로운 프레임워크입니다. 다중 목표 최적화 기법과 새로운 강건성 지표를 통해 근접성, 다양성, 강건성의 균형을 이루며 실제 적용 가능성을 높였습니다.

DiCE-Extended: AI 설명 가능성의 새로운 장을 열다
의료, 금융, 법률 등 중요한 의사결정이 필요한 분야에서 설명 가능한 인공지능(XAI)의 중요성이 날로 증대되고 있습니다. 그 중에서도 반실제(Counterfactual) 설명은 사용자에게 실행 가능한 통찰력을 제공하는 중요한 XAI 접근 방식입니다. 이는 모델의 결과를 바꾸기 위해 입력 특징에 최소한의 수정을 제안함으로써 작동합니다.
하지만 기존의 CF 생성 방법들은 근접성, 다양성, 강건성을 모두 만족시키는 데 어려움을 겪어 실제 적용에 한계가 있었습니다. 대표적인 프레임워크인 DiCE(Diverse Counterfactual Explanations)는 다양성에는 강점을 보이지만, 입력값의 작은 변화에도 민감하게 반응하는 강건성 부족이라는 약점을 가지고 있었습니다.
Volkan Bakir, Polat Goktas, Sureyya Akyuz 등의 연구진은 이러한 문제점을 해결하기 위해, 다중 목표 최적화 기법을 통합한 DiCE-Extended 프레임워크를 개발했습니다. DiCE-Extended는 해석 가능성을 유지하면서 강건성을 향상시키는 데 초점을 맞추고 있습니다.
DiCE-Extended의 핵심은 다음과 같습니다.
- Dice-Sorensen 계수 기반의 새로운 강건성 지표: 작은 입력 변화에도 안정적인 CF 설명을 보장합니다.
- 가중 손실 함수 (lambda_p, lambda_d, lambda_r): 근접성, 다양성, 강건성을 효과적으로 조절하여 균형을 맞춥니다.
연구진은 COMPAS, Lending Club, German Credit, Adult Income 등의 벤치마크 데이터셋과 Scikit-learn, PyTorch, TensorFlow 등 다양한 머신러닝 백엔드를 사용하여 DiCE-Extended를 실험적으로 검증했습니다. 그 결과, 기존 DiCE보다 CF의 유효성, 안정성, 의사결정 경계와의 정합성이 향상되었음을 확인했습니다.
DiCE-Extended는 고위험도 애플리케이션에서 더욱 신뢰할 수 있고 해석 가능한 CF를 생성하는 잠재력을 보여줍니다. 향후 연구에서는 적응형 최적화 기법과 도메인 특정 제약 조건을 탐색하여 실제 시나리오에서 CF 생성을 더욱 개선할 계획입니다. 이는 AI 설명 가능성 분야에 중요한 발전이며, 더욱 투명하고 신뢰할 수 있는 AI 시스템 구축에 기여할 것으로 기대됩니다.
Reference
[arxiv] DiCE-Extended: A Robust Approach to Counterfactual Explanations in Machine Learning
Published: (Updated: )
Author: Volkan Bakir, Polat Goktas, Sureyya Akyuz
http://arxiv.org/abs/2504.19027v1