AI 설명 가능성의 혁신: 반실증적 설명의 사용자 만족도 예측
본 연구는 반실증적 설명의 사용자 만족도를 예측하는 모델을 개발하고, 실행 가능성과 신뢰성이 사용자 만족도에 가장 큰 영향을 미치는 요소임을 밝혔습니다. 또한, 복잡성은 만족도와 무관하며 사용자의 배경이 평가에 영향을 미친다는 점을 발견했습니다. 이는 AI 설명 가능성 연구에 중요한 시사점을 제공합니다.

설명 가능한 AI(Explainable AI, XAI) 분야에서 반실증적 설명(Counterfactual Explanations)은 점점 더 중요해지고 있습니다. 이는 입력 데이터의 작은 변화가 결과에 어떤 영향을 미치는지 보여줌으로써 의사결정 과정에 대한 실행 가능한 통찰력을 제공하기 때문입니다. 하지만, 반실증적 설명의 품질을 평가하는 것은 여전히 풀어야 할 숙제였습니다. 기존의 정량적 지표(sparsity, proximity 등)는 인간의 주관적인 선호도를 완전히 반영하지 못했고, 사용자 연구는 통찰력 있지만 확장성이 부족했습니다.
Marharyta Domnich 등 연구진은 이러한 문제를 해결하기 위해 206명의 참가자를 대상으로 한 연구를 진행했습니다. 참가자들은 반실증적 설명에 대한 전반적인 만족도뿐만 아니라, 실행 가능성, 일관성, 복잡성, 이해도, 완성도, 공정성, 신뢰성 등 7가지 설명 기준을 평가했습니다.
연구 결과, 실행 가능성(제안된 변경 사항의 실행 가능성)과 신뢰성(변경 사항이 원하는 결과로 이어질 것이라는 믿음)이 사용자 만족도를 예측하는 가장 강력한 지표로 나타났습니다. 흥미롭게도 완성도 또한 중요한 요소로 밝혀졌습니다. 실행 가능성과 신뢰성을 제외하더라도, 다른 지표들이 만족도의 58%를 설명할 수 있다는 점은 추가적인 설명적 특성의 중요성을 강조합니다. 반면, 복잡성은 만족도와 무관한 것으로 나타났습니다. 즉, 더 자세한 설명이 반드시 만족도를 높이는 것은 아님을 시사합니다.
또한, 지표 간의 강한 상관관계는 사용자가 설명의 품질을 평가하는 데 있어 잠재적인 구조가 존재함을 시사합니다. 나아가, 인구 통계적 배경이 사용자의 순위 매기는 패턴에 상당한 영향을 미친다는 점 또한 밝혀졌습니다. 이러한 통찰력은 사용자의 전문 지식과 도메인 컨텍스트에 맞춰 설명의 특성을 조정하는 반실증적 알고리즘 설계에 중요한 정보를 제공합니다.
결론적으로, 이 연구는 반실증적 설명의 품질 평가에 대한 새로운 관점을 제시하고, 사용자 만족도를 높이는 효과적인 설명을 설계하는 데 중요한 지침을 제공합니다. 실행 가능성과 신뢰성에 초점을 맞추는 동시에, 완성도와 같은 다른 요소들도 고려해야 함을 시사하며, 앞으로 AI 설명 가능성 연구의 새로운 방향을 제시할 것으로 기대됩니다.
Reference
[arxiv] Predicting Satisfaction of Counterfactual Explanations from Human Ratings of Explanatory Qualities
Published: (Updated: )
Author: Marharyta Domnich, Rasmus Moorits Veski, Julius Välja, Kadi Tulver, Raul Vicente
http://arxiv.org/abs/2504.13899v1