혁신적인 통합 그래디언트 기반 프레임워크: 과제 비의존적 지속적 학습-학습 제거(CLU)
Huang 박사 연구팀은 CLU(Continual Learning-Unlearning)를 위한 통합 그래디언트 기반 프레임워크를 제시하여, 쿨백-라이블러 발산 최소화를 통해 CL과 MU의 연결성을 규명하고, 잔류 헤세 보상 기법을 통해 안정성-가소성 문제를 해결했습니다. 특히, 과제 비의존적 CLU 시나리오를 제시하여 더욱 정교하고 유연한 AI 시스템 개발의 가능성을 열었습니다.

끊임없이 배우고, 필요없는 것은 잊는 AI 시대의 도래
최근 딥러닝 모델의 발전은 지식 습득을 위한 지속적 학습(CL)과 데이터 제거를 위한 기계적 학습 제거(MU)를 결합한 지속적 학습-학습 제거(CLU) 패러다임에 대한 필요성을 부각시켰습니다. Huang 박사 연구팀(Zhehao Huang 외 7인)은 기존의 CL과 MU를 분리된 과정으로 다루던 방식에서 벗어나, 쿨백-라이블러 발산 최소화에 기반한 통합 최적화 프레임워크를 제시했습니다. 이는 CLU를 위한 그래디언트 업데이트를 네 가지 구성 요소(새로운 지식 학습, 대상 데이터 학습 제거, 기존 지식 보존, 가중치 중요도를 통한 변조)로 분해하는 혁신적인 접근 방식입니다.
균형 잡힌 학습과 잊음: 안정성과 가소성의 조화
연구팀은 순차적인 학습-학습 제거 주기 동안 지식 업데이트와 보존의 균형을 맞추는 데 어려움을 해결하기 위해 **'잔류 헤세 보상(remain-preserved manifold constraint)'**이라는 새로운 제약 조건을 도입했습니다. 이를 통해 CLU 반복에 대한 안정성을 확보하고, 빠른-느린 가중치 적응 메커니즘과 적응적 가중치 계수, 균형 잡힌 가중치 중요도 마스크를 결합하여 2차 최적화 방향을 효율적으로 근사하는 통합 구현 프레임워크를 제시했습니다.
과제 비의존적 CLU: 더욱 정교하고 유연한 학습-잊음
더 나아가, 연구팀은 기존의 과제 중심적 설정을 넘어서는 과제 비의존적 CLU 시나리오를 개척했습니다. 이는 과제 간 범주 및 무작위 샘플 수준에서 세분화된 학습 제거를 지원하며, 다양한 데이터셋과 모델 아키텍처에서 증분 학습, 정밀한 학습 제거, 지식 안정성을 효과적으로 조정함을 실험적으로 증명했습니다.
이 연구는 동적인 지능형 시스템을 위한 이론적 기반과 방법론적 지원을 제공하며, AI의 지속적인 학습과 잊음을 통해 더욱 유연하고 효율적인 인공지능 시스템 개발의 새로운 장을 열 것으로 기대됩니다. 이는 단순히 데이터를 학습하는 것을 넘어, 필요 없는 정보를 제거하고 핵심 지식을 유지하는, 진정한 의미의 '학습'에 가까워지는 중요한 발걸음입니다.
Reference
[arxiv] A Unified Gradient-based Framework for Task-agnostic Continual Learning-Unlearning
Published: (Updated: )
Author: Zhehao Huang, Xinwen Cheng, Jie Zhang, Jinghao Zheng, Haoran Wang, Zhengbao He, Tao Li, Xiaolin Huang
http://arxiv.org/abs/2505.15178v1