EXPLICATE: 설명 가능한 AI로 피싱 공격을 막다


EXPLICATE 프레임워크는 98.4%의 높은 정확도와 94.2%의 설명 정확도를 달성하여, 피싱 감지 시스템의 설명 가능성을 크게 향상시켰습니다. GUI 애플리케이션 및 크롬 확장 프로그램을 통해 실용성을 높였으며, AI와 사용자 간의 신뢰 구축에 기여하는 혁신적인 연구입니다.

related iamge

갈수록 교묘해지는 피싱 공격, 이제 AI가 해결책을 제시하다!

최근 피싱 공격은 그 수법이 날로 정교해지고 있습니다. 기존의 머신러닝 기술은 높은 정확도를 자랑하지만, '블랙박스'처럼 작동하여 의사결정 과정을 알 수 없다는 치명적인 단점이 있었습니다. 사용자는 왜 피싱으로 판단되었는지 알 수 없어 불안감을 느끼고, 결국 효과적인 대응에 어려움을 겪게 됩니다.

하지만 이제 희망이 있습니다! Bryan Lim 등 연구진이 개발한 EXPLICATE 프레임워크가 바로 그 해답입니다. EXPLICATE는 세 가지 핵심 요소로 구성된 혁신적인 시스템입니다.

1. 정확한 판별: 도메인 특화 기능을 사용한 ML 기반 분류기

먼저, 도메인 특화 기능을 활용한 강력한 머신러닝 기반 분류기가 피싱 여부를 정확하게 판별합니다. 기존 딥러닝 기술과 비슷한 98.4%의 높은 정확도를 자랑합니다. 단순히 높은 정확도에 그치지 않고, 왜 그렇게 판단했는지에 대한 설명을 제공하는 것이 EXPLICATE의 핵심입니다.

2. 투명한 설명: LIME과 SHAP을 활용한 이중 설명 계층

두 번째로, LIME과 SHAP이라는 두 가지 기술을 결합한 이중 설명 계층이 작동합니다. 이는 특징 수준의 통찰력을 제공하여 모델의 판단 근거를 명확하게 보여줍니다. 마치 의사가 환자에게 질병 진단 과정을 설명하듯, AI의 판단 과정을 투명하게 공개하는 것이죠.

3. 쉬운 이해: DeepSeek v3 기반 LLM을 통한 자연어 설명

마지막으로, DeepSeek v3 기반의 거대언어모델(LLM)이 기술적인 설명을 일반 사용자도 쉽게 이해할 수 있는 자연어로 변환해줍니다. 이를 통해 사용자는 AI의 판단에 대한 신뢰도를 높이고, 더 효과적으로 피싱 공격에 대응할 수 있습니다. 이 설명의 정확도는 무려 94.2%, 모델 예측과의 일관성은 96.8%에 달합니다.

실용적인 적용: GUI 애플리케이션과 크롬 확장 프로그램

EXPLICATE는 사용자 편의성을 위해 GUI 애플리케이션과 가벼운 크롬 확장 프로그램으로도 개발되었습니다. 다양한 환경에서 쉽게 사용할 수 있다는 점이 큰 장점입니다.

결론: AI와 사용자의 신뢰를 잇는 다리

EXPLICATE는 높은 성능과 설명 가능성을 동시에 달성하여, AI 기반 보안 시스템에 대한 사용자의 신뢰를 높이는 데 크게 기여할 것으로 기대됩니다. 단순히 피싱을 막는 것 이상으로, AI와 사용자 간의 신뢰라는 중요한 문제를 해결하는 혁신적인 연구라고 할 수 있습니다. 이는 안전한 디지털 세상을 향한 중요한 발걸음이 될 것입니다.


*이 기사는 AI가 생성한 내용으로, 일부 정보가 실제와 다를 수 있습니다. 정확한 확인을 위해 추가적인 검증을 권장드립니다.

Reference

[arxiv] EXPLICATE: Enhancing Phishing Detection through Explainable AI and LLM-Powered Interpretability

Published:  (Updated: )

Author: Bryan Lim, Roman Huerta, Alejandro Sotelo, Anthonie Quintela, Priyanka Kumar

http://arxiv.org/abs/2503.20796v1