혁신적인 AI 학습 프레임워크, PROGRESS: 데이터와 비용 효율성을 극대화하다
PROGRESS라는 새로운 AI 학습 프레임워크가 기존 instruction tuning의 한계를 극복하고 데이터 및 컴퓨팅 자원 효율성을 크게 향상시켰습니다. 적은 데이터와 감독으로 SOTA 성능을 달성하며, 다양한 모델 구조에서 우수한 성능을 보였습니다.

혁신적인 AI 학습 프레임워크, PROGRESS: 데이터와 비용 효율성을 극대화하다
최근 비전-언어 모델(VLMs)의 성공에 있어 instruction tuning이 중추적인 역할을 해왔지만, 대규모 데이터셋, 고품질 어노테이션, 그리고 방대한 컴퓨팅 자원이 필요하다는 한계점을 가지고 있습니다. 하지만 이제, 이러한 문제를 해결할 획기적인 연구 결과가 발표되었습니다! Shivam Chandhok 등 6명의 연구자들이 발표한 논문 "Learning What Matters: Prioritized Concept Learning via Relative Error-driven Sample Selection (PROGRESS)"에서 PROGRESS라는 새로운 프레임워크가 소개되었는데요. 이 프레임워크는 데이터와 컴퓨팅 자원의 효율성을 극대화하여 VLMs의 학습 방식을 혁신적으로 변화시킬 잠재력을 가지고 있습니다.
PROGRESS는 모델이 학습 과정에서 자신의 필요에 따라 무엇을 배울지 동적으로 선택하도록 합니다. 각 단계에서 모델은 자신의 기술 수준을 추적하고, 아직 습득하지 못했으며 현재 학습 단계에서 배우기에는 너무 어렵지 않은 가장 유익한 샘플을 선택합니다. 이 전략은 기술 습득 및 기술 습득 순서를 효과적으로 제어합니다. 특히, 가장 빠른 향상을 보이는 기술에서 샘플링하여 학습 진행 상황이 가장 높은 기술을 우선적으로 처리합니다.
기존의 방법들과 비교했을 때 PROGRESS의 가장 큰 장점은 다음과 같습니다.
- 사전 어노테이션이 필요 없습니다: 추가적인 감독 없이 필요에 따라서만 답변을 질의합니다.
- 보조 VLM에 의존하지 않습니다: 외부 모델의 도움 없이 독립적으로 학습합니다.
- 컴퓨팅 자원이 많이 드는 그래디언트 계산을 하지 않습니다: 데이터 선택을 위한 복잡한 계산을 피함으로써 효율성을 높입니다.
다양한 규모의 instruction tuning 데이터셋에 대한 실험 결과, PROGRESS는 기존 최고 성능(SOTA) 기준보다 훨씬 적은 데이터와 감독으로 일관되게 우수한 성능을 보였습니다. 또한, 다양한 모델 구조에서 강력한 일반화 및 전이 성능을 보여주어, 확장 가능한 효율적인 학습 솔루션으로서의 가능성을 입증했습니다.
PROGRESS는 단순한 기술적 발전을 넘어, AI 모델 개발의 패러다임을 바꿀 잠재력을 지닌 혁신적인 프레임워크로 평가받고 있습니다. 데이터와 비용 효율성을 극대화하는 PROGRESS의 등장은 더욱 발전된 AI 기술의 개발을 가속화할 것으로 기대됩니다. 앞으로 PROGRESS가 어떻게 AI 분야를 변화시킬지, 그 귀추가 주목됩니다!
Reference
[arxiv] Learning What Matters: Prioritized Concept Learning via Relative Error-driven Sample Selection
Published: (Updated: )
Author: Shivam Chandhok, Qian Yang, Oscar Manas, Kanishk Jain, Leonid Sigal, Aishwarya Agrawal
http://arxiv.org/abs/2506.01085v1