LLM의 효율적 파인튜닝 혁명: LIFT 알고리즘의 등장
본 기사는 LLM의 효율적인 파인튜닝을 위한 혁신적인 알고리즘 LIFT에 대한 소개입니다. LIFT는 저차원 근사를 통해 주요 가중치를 식별하고 선택적으로 업데이트함으로써, 기존 방법의 한계를 극복하고 성능과 효율성을 동시에 향상시킵니다. 소스 코드 공개를 통해 향후 LLM 연구 및 개발에 큰 영향을 미칠 것으로 기대됩니다.

최근 몇 년간, 대규모 언어 모델(LLM)은 놀라운 발전을 이루었지만, 소량의 고품질 데이터셋으로 파인튜닝하는 과정은 여전히 계산 비용이 많이 들고 과적합 및 망각 문제에 취약합니다. 전체 파인튜닝(Full FT)은 강력하지만 비효율적이며, 희소 파인튜닝은 효율적이지만 어떤 매개변수를 업데이트해야 하는지 파악하는 데 어려움이 있었습니다.
하지만 이제 중국과학원 등의 연구진이 개발한 LIFT(Low-rank Informed Sparse Fine-Tuning) 알고리즘이 이러한 문제를 해결할 새로운 가능성을 제시합니다. Liu Zihang 등 8명의 연구자는 논문 "LIFT the Veil for the Truth: Principal Weights Emerge after Rank Reduction for Reasoning-Focused Supervised Fine-Tuning"에서 저차원 근사 후 가장 큰 크기를 가진 가중치를 주요 가중치(Principal Weights) 로 정의하고, 이를 선택적으로 업데이트하는 전략을 제시했습니다. 이는 마치 베일에 가려진 진실을 드러내는 듯, LLM 파인튜닝의 핵심 가중치를 효과적으로 찾아내는 혁신적인 접근 방식입니다.
놀랍게도, 기존의 크기 기반 희소 파인튜닝은 LLM 파인튜닝에서 성능이 저조했지만, 저차원 근사 후에는 효과가 크게 향상되었습니다. LIFT는 훈련 과정에서 상위 5%의 주요 가중치만 업데이트하여 전체 파인튜닝과 비슷하거나 더 나은 성능을 달성하면서 메모리 효율성 또한 유지합니다. 산술 추론과 같은 특정 영역에서 뛰어난 성능을 보이는 것은 물론, 기존의 방법들에 비해 소스 도메인 지식 손실을 최대 20%까지 줄이는 놀라운 결과를 보여주었습니다. 이는 마치 LLM이 더욱 '똑똑해지면서' 기존의 지식까지 잊지 않는 것을 의미합니다.
이 연구는 LLM의 효율적인 파인튜닝 분야에 중요한 이정표를 세웠습니다. LIFT의 소스 코드는 GitHub(https://github.com/zihanghliu/LIFT)에서 공개되어 있으며, 향후 LLM 개발 및 응용에 큰 영향을 미칠 것으로 예상됩니다. 이제 LLM 파인튜닝의 새로운 시대가 열릴 준비가 된 것입니다.
Reference
[arxiv] LIFT the Veil for the Truth: Principal Weights Emerge after Rank Reduction for Reasoning-Focused Supervised Fine-Tuning
Published: (Updated: )
Author: Zihang Liu, Tianyu Pang, Oleg Balabanov, Chaoqun Yang, Tianjin Huang, Lu Yin, Yaoqing Yang, Shiwei Liu
http://arxiv.org/abs/2506.00772v1