혁신적인 AI: Shapley Value 기반 비균일 가지치기로 LLM의 효율성 극대화
Sun Chuan 등 연구진이 개발한 Shapley Value 기반 비균일 가지치기(SV-NUP)는 LLM의 크기와 계산 복잡도를 줄이면서 성능 저하를 최소화하는 혁신적인 방법입니다. Sliding Window 기반 근사 방법을 통해 효율성을 높였으며, 다양한 LLM에서 실험을 통해 성능 향상을 검증했습니다.

최근 급증하는 대규모 언어 모델(LLM)의 크기와 계산 복잡도는 심각한 문제로 떠오르고 있습니다. Sun Chuan 등 연구진은 이 문제 해결을 위해 Shapley Value 기반 비균일 가지치기(SV-NUP) 라는 혁신적인 방법을 제시했습니다. 기존의 층별 가지치기 방식은 모든 층에 균일한 희소성을 적용하는데, 이는 모델 내 각 변압기 층의 중요도 차이를 고려하지 않아 최적의 성능을 내지 못하는 한계가 있었습니다.
하지만 SV-NUP은 다릅니다. 연구진은 Shapley Value를 이용하여 각 변압기 층의 전체 모델 성능에 대한 기여도를 정량화했습니다. 이를 통해 각 층에 맞춤형 가지치기 비율을 할당하여 중요한 매개변수를 유지할 수 있습니다. 더 나아가, Sliding Window 기반 Shapley Value 근사 방법을 설계하여 정확한 Shapley Value 계산 방법에 비해 계산 비용을 크게 줄였습니다. 이는 효율성 측면에서 획기적인 발전입니다.
LLaMA-v1, LLaMA-v2, OPT 등 다양한 LLM을 대상으로 한 실험 결과는 SV-NUP의 효과를 명확히 보여줍니다. 비균일 가지치기는 가지치기된 모델의 성능을 크게 향상시켰습니다. 특히, 70% 희소성에서 SparseGPT와 비교했을 때, LLaMA-7B는 18.01%, LLaMA-13B는 19.55%의 퍼플렉서티(PPL) 감소를 달성했습니다. 이는 SV-NUP이 LLM의 크기와 계산 비용을 줄이면서도 성능 저하를 최소화할 수 있음을 보여주는 놀라운 결과입니다.
이 연구는 LLM의 효율성을 극대화하는 데 중요한 돌파구를 마련했습니다. 앞으로 더욱 발전된 연구를 통해 더욱 작고 효율적인 LLM 개발이 기대됩니다. 하지만, Shapley Value 계산의 복잡성과 다양한 LLM 구조에 대한 적용성 검증 등은 앞으로 해결해야 할 과제로 남아있습니다.
핵심 키워드: Shapley Value, 비균일 가지치기, 대규모 언어 모델(LLM), 모델 압축, 효율성, LLaMA, OPT, SparseGPT
Reference
[arxiv] Efficient Shapley Value-based Non-Uniform Pruning of Large Language Models
Published: (Updated: )
Author: Chuan Sun, Han Yu, Lizhen Cui, Xiaoxiao Li
http://arxiv.org/abs/2505.01731v3