획기적인 AI 추론 기술: 학습과 망각을 통한 대규모 언어 모델의 진화


Tianwei Ni 등 연구진은 대규모 언어 모델의 추론 능력 향상을 위한 새로운 방법을 제시했습니다. 학습과 망각 데이터를 활용한 미세 조정을 통해 추론 시간을 180배 단축하고, Game-of-24 및 Countdown 벤치마크에서 우수한 성능을 달성했습니다.

related iamge

최근, Tianwei Ni, Allen Nie 등 연구진이 발표한 논문 "Teaching Large Language Models to Reason through Learning and Forgetting"은 AI 분야에 새로운 이정표를 제시했습니다. 복잡한 수학 및 추론 문제 해결 능력 향상을 위해 대규모 언어 모델에 추론 시 검색 기능을 활용하는 기존 방법은 계산 비용과 추론 시간이 급증하는 문제점을 가지고 있었습니다. 모델이 여러 후보 솔루션을 생성하고 평가하여 적절한 추론 경로를 찾아야 하기 때문입니다.

연구진은 이러한 문제를 해결하기 위해, 다양한 검색 방법에서 도출된 성공적인 추론 경로(학습)와 실패한 추론 경로(망각)를 모두 활용하여 모델을 미세 조정하는 혁신적인 방법을 제시했습니다. 단순히 데이터로 모델을 미세 조정하는 것이 아니라, '학습'과 '망각'이라는 상반된 경험을 통해 모델의 추론 능력을 향상시키는 전략을 구축한 것입니다.

흥미롭게도, 연구진은 단순한 미세 조정으로는 모델의 검색 능력이 빠르게 저하될 수 있다는 중요한 문제점을 발견했습니다. 하지만 학습률을 줄임으로써 이러한 저하를 상당히 완화할 수 있음을 보였습니다. Game-of-24와 Countdown과 같은 어려운 수학적 추론 벤치마크에서 실험한 결과, 이 방법은 표준 미세 조정 및 추론 시 검색 기준보다 성능이 훨씬 뛰어나고, 추론 시간을 무려 180배나 단축시키는 놀라운 결과를 보여주었습니다. 이는 단순히 효율성만 향상시킨 것이 아니라, AI의 추론 능력 자체를 획기적으로 발전시킨 것을 의미합니다.

이 연구는 AI의 추론 능력을 향상시키는 새로운 패러다임을 제시하며, 앞으로 더욱 복잡하고 어려운 문제를 해결하는 AI 시스템 개발에 중요한 기여를 할 것으로 기대됩니다. '학습'과 '망각'이라는 상반된 개념을 조화롭게 활용하여 AI의 한계를 극복하는 이번 연구는, AI 발전에 있어 잊지 못할 중요한 전환점이 될 것입니다.


*이 기사는 AI가 생성한 내용으로, 일부 정보가 실제와 다를 수 있습니다. 정확한 확인을 위해 추가적인 검증을 권장드립니다.

Reference

[arxiv] Teaching Large Language Models to Reason through Learning and Forgetting

Published:  (Updated: )

Author: Tianwei Ni, Allen Nie, Sapana Chaudhary, Yao Liu, Huzefa Rangwala, Rasool Fakoor

http://arxiv.org/abs/2504.11364v2