잊는 법을 배우는 AI: 저장대학교 ZJUKLAB팀의 획기적인 연구


저장대학교 ZJUKLAB팀은 SemEval-2025 Task 4에서 혁신적인 모델 병합 기법을 통해 AI의 민감 정보 제거 문제에 대한 탁월한 해결책을 제시하며 2위를 차지했습니다. 단순한 기술적 성과를 넘어, 기존 평가 지표의 한계를 지적하고 향후 연구 방향을 제시하는 등 AI 윤리에 대한 깊이 있는 고찰을 보여주었습니다.

related iamge

최근 AI 윤리에 대한 관심이 높아지면서, AI 모델에서 민감한 정보를 제거하는 '언러닝(Unlearning)' 기술이 주목받고 있습니다. 단순히 정보를 삭제하는 것이 아니라, 모델의 성능 저하 없이 민감한 정보를 효과적으로 제거하는 기술이 필요한데요. 중국 저장대학교(Zhejiang University)의 ZJUKLAB 팀은 이러한 어려움을 극복할 혁신적인 방법을 제시했습니다.

ZJUKLAB팀은 SemEval-2025 Task 4 (대형 언어 모델에서 민감한 콘텐츠 언러닝) 에 참가하여, 놀라운 성과를 거두었습니다. 그들은 모델 병합(Model Merging), 특히 TIES-Merging이라는 기법을 활용했습니다. 이는 민감한 정보에 특화된 모델과 일반적인 정보에 특화된 모델 두 개를 결합하여, 과도한 정보 손실(over-forgetting)이나 부족한 정보 손실(under-forgetting) 없이 균형 잡힌 결과를 얻는 방법입니다.

26개 팀이 경쟁한 이 대회에서 ZJUKLAB팀은 Task Aggregate 기준 0.944점, 전체 Aggregate 기준 0.487점을 기록하며 2위를 차지했습니다. 단순히 높은 점수를 달성한 것 뿐만 아니라, 그들은 언러닝 과정에 대한 심층적인 분석을 수행했습니다. 성능 추이, 손실 역학, 가중치 관점 등을 종합적으로 분석하여 자신들의 방법의 효과를 입증했습니다.

하지만 ZJUKLAB팀은 여기서 멈추지 않았습니다. 그들은 기존의 MIA 점수와 ROUGE 기반 지표만으로는 성공적인 언러닝을 완벽하게 평가하기 어렵다는 점을 지적하며, 더욱 포괄적인 평가 방법론과 언러닝 목표에 대한 재고를 강조했습니다. 이러한 냉철한 자기 평가와 향후 연구 방향 제시는 이 연구의 가치를 더욱 빛나게 합니다.

ZJUKLAB팀의 연구는 단순히 기술적 성과를 넘어, AI의 윤리적 책임에 대한 중요한 메시지를 전달합니다. 그들의 연구 결과는 Github에서 확인할 수 있습니다. AI의 발전과 함께 윤리적 문제에 대한 고민은 더욱 중요해지고 있으며, ZJUKLAB팀의 연구는 이러한 고민에 대한 하나의 훌륭한 해답을 제시하고 있습니다.


*이 기사는 AI가 생성한 내용으로, 일부 정보가 실제와 다를 수 있습니다. 정확한 확인을 위해 추가적인 검증을 권장드립니다.

Reference

[arxiv] ZJUKLAB at SemEval-2025 Task 4: Unlearning via Model Merging

Published:  (Updated: )

Author: Haoming Xu, Shuxun Wang, Yanqiu Zhao, Yi Zhong, Ziyan Jiang, Ningyuan Zhao, Shumin Deng, Huajun Chen, Ningyu Zhang

http://arxiv.org/abs/2503.21088v1