AROMA: 자율적인 랭크-원 매트릭스 적응 - AI 미세 조정의 새로운 지평
AROMA는 거대 언어 모델의 매개변수 효율적인 미세 조정을 위한 혁신적인 방법으로, 계층별 최적의 계급(rank)을 자동으로 결정하여 기존 방법의 한계를 극복하고 자원 효율성과 성능 향상을 동시에 달성합니다. 이는 AI 모델 개발의 새로운 지평을 열 것으로 기대됩니다.

거대 언어 모델 시대의 새로운 도전과 AROMA의 등장
최근 급증하는 거대 언어 모델(LLM)의 크기는 미세 조정(fine-tuning)에 있어 큰 어려움을 야기합니다. 매개변수의 압도적인 수는 막대한 컴퓨팅 자원과 시간을 필요로 하기 때문입니다. 이러한 문제에 대한 해결책으로 떠오른 것이 바로 매개변수 효율적인 미세 조정(Parameter-Efficient Fine-Tuning) 입니다.
저계급 적응(LoRA)은 이러한 문제에 대한 효과적인 접근 방식으로 주목받았습니다. 하지만 LoRA는 고정된 계급(rank)을 사용하기 때문에 최적의 성능을 보장할 수 없다는 한계가 존재합니다. AdaLoRA는 동적인 계급 할당을 통해 이러한 문제를 개선하려고 시도했지만, 초기 및 목표 계급 설정에 여전히 민감하다는 단점을 가지고 있습니다.
AROMA: 계급 성장을 통한 혁신적인 접근
바로 여기서 AROMA (Autonomous Rank-one Matrix Adaptation) 가 등장합니다. Hao Nan Sheng, Zhi-yong Wang, Mingrui Yang, Hing Cheung So 등 연구진이 개발한 AROMA는 기존의 계급 감소 방식과는 달리 계급 성장(rank growth) 이라는 독창적인 접근 방식을 채택했습니다. AROMA는 극소수의 학습 가능한 매개변수를 사용하여 계층별 업데이트를 반복적으로 구축합니다. 이는 내부 루프에서 각 랭크-원 부분 공간으로부터 정보를 추출하고, 외부 루프에서 최적의 계급, 즉 랭크-원 부분 공간의 수를 결정하는 이중 루프 아키텍처를 통해 가능해집니다. 또한, 부분 공간의 독립성을 유지하기 위해 최적화기 상태를 재설정하는 기법을 사용합니다.
AROMA의 성과와 미래
AROMA는 LoRA 및 AdaLoRA에 비해 매개변수 수를 획기적으로 줄이면서 자연어 이해 및 상식 추론 과제에서 뛰어난 성능을 달성했습니다. 이는 적응형 매개변수 효율적인 미세 조정에 대한 새로운 통찰력을 제공합니다. GitHub (https://github.com/ShuDun23/AROMA)에서 코드를 확인할 수 있습니다.
AROMA는 단순히 새로운 알고리즘을 넘어, 거대 언어 모델의 효율적인 활용과 발전에 중요한 전환점을 제시합니다. 자원 제약 없이 더욱 강력하고 효율적인 AI 모델 개발을 가능하게 함으로써, 다양한 분야에서 AI 기술의 확장과 응용을 가속화할 것으로 기대됩니다.
Reference
[arxiv] AROMA: Autonomous Rank-one Matrix Adaptation
Published: (Updated: )
Author: Hao Nan Sheng, Zhi-yong Wang, Mingrui Yang, Hing Cheung So
http://arxiv.org/abs/2504.05343v1