혁신적인 발견! LLM의 사실 정확도를 높이는 놀라운 방법
대규모 언어 모델(LLM)의 사실 정확도를 향상시키기 위해 추론 과정을 확장하는 연구가 진행되었으며, 테스트 시간 계산 및 토큰 예산 증가가 사실 정확도를 2~8% 향상시키는 것으로 나타났습니다. 지식 그래프 정보 통합 또한 효과적인 방법으로 제시되었습니다.

대규모 언어 모델의 사실 정확도 향상: 추론 확장의 힘
최근 마이크 장, 요하네스 비에르바, 루사 비스와스 등 연구진이 발표한 논문 "추론 확장을 통한 대규모 언어 모델의 사실 정확도 향상"은 LLM의 추론 능력 향상에 대한 흥미로운 결과를 제시합니다. 기존 연구들이 수학적 추론에서 긴 추론 과정과 추가적인 계산 자원이 모델 성능을 향상시킨다는 것을 보여주었지만, 이러한 효과가 수학적 맥락을 넘어 일반적인 사실 정확도 향상으로 이어지는지에 대한 의문은 여전히 남아있었습니다.
이 연구는 QwQ-32B와 DeepSeek-R1-671B와 같은 대규모 추론 모델에서 추론 과정을 추출하고, 다양한 크기의 모델들(소규모 지시 조정 모델부터 Qwen2.5 기반의 대규모 아키텍처까지)을 미세 조정하여 개방형 질의응답(QA) 시나리오에서 LLM의 추론 능력을 심도 있게 분석했습니다. 특히, 지식 그래프에서 가져온 사실 정보를 추론 과정에 추가하는 혁신적인 방법을 사용하여 추론의 풍부함을 더했습니다.
6개의 데이터 세트(22,600개 이상의 질문 포함)를 사용하여 총 168번의 실험을 실시하고 약 170만 개의 추론 과정을 분석한 결과, 놀라운 사실이 밝혀졌습니다. 규모가 작은 추론 모델에서도 테스트 시간 계산과 토큰 예산을 늘리면 사실 정확도가 2~8% 향상되는 것으로 나타났습니다! 이는 테스트 시간 확장이 개방형 QA 작업에서 추론 정확도를 향상시키는 데 효과적임을 보여줍니다. 더 나아가, 연구진은 모든 실험 결과물을 공개하여 후속 연구를 지원하고 있습니다.
이 연구는 단순히 LLM의 성능 향상을 넘어, 더욱 정확하고 신뢰할 수 있는 AI 시스템 개발에 중요한 단서를 제공합니다. 앞으로 지식 그래프를 활용한 추론 확장 기술은 LLM 기반 애플리케이션의 신뢰성을 높이는 핵심 요소가 될 것으로 기대됩니다. 연구진의 혁신적인 연구 결과는 AI 발전에 중요한 이정표를 세웠다고 볼 수 있습니다.🎉
Reference
[arxiv] Scaling Reasoning can Improve Factuality in Large Language Models
Published: (Updated: )
Author: Mike Zhang, Johannes Bjerva, Russa Biswas
http://arxiv.org/abs/2505.11140v1