대규모 언어 모델(LLM)을 활용한 추천 시스템 성능 향상 및 해석력 증대
본 연구는 대규모 언어 모델(LLM)을 활용하여 시퀀셜 추천 시스템의 성능과 해석력을 향상시키는 새로운 방법인 '유도 임베딩 개선'을 제시합니다. LLM을 보조 도구로 활용하여 생성된 유도 임베딩은 다양한 기존 모델과 호환되며, MRR, 재현율, NDCG 등의 지표에서 10~50%의 성능 향상을 보였습니다.

LLM 기반 추천 시스템의 혁신: 유도 임베딩 개선
최근 급속도로 발전하는 대규모 언어 모델(LLM)은 시퀀셜 추천 시스템 개선에 엄청난 기회를 제공합니다. 하지만, 기존 추천 시스템에 LLM을 통합하는 것은 모델의 해석력, 투명성, 안전성에 대한 우려를 불러일으키기도 합니다.
Jia Nanshan 등 연구진은 이러한 문제를 해결하기 위해 **'유도 임베딩 개선'**이라는 혁신적인 방법을 제시했습니다. 이 방법은 LLM을 추천 시스템의 핵심으로 사용하는 대신, 보조 도구로 활용하는 것이 특징입니다.
연구진은 LLM을 활용하여 추천의 판매 논리를 모방하고, 해석 가능한 속성에 대한 의미 정보를 담은 **'유도 임베딩'**을 생성합니다. 이 유도 임베딩은 강력한 일반화 능력을 가지고 있으며, 기존 기본 임베딩의 저차원 버전과 결합하여 **'개선된 임베딩'**을 만드는데 사용됩니다. 이 개선된 임베딩은 추천 모듈에 통합되어 학습 및 추론에 활용됩니다.
다양한 실험 결과, 유도 임베딩은 다양한 기존 기본 임베딩 모델에 적용 가능하며, 서로 다른 추천 작업에서도 우수한 성능을 보였습니다. 특히, MRR(Mean Reciprocal Rank), 재현율, NDCG(Normalized Discounted Cumulative Gain) 와 같은 주요 지표에서 10%~50%의 성능 향상을 달성했습니다. 더욱이, 사례 연구를 통해 해석력 향상도 확인되었습니다.
이 연구는 LLM을 추천 시스템에 효과적으로 통합하는 새로운 방향을 제시하며, 향상된 성능과 해석력을 동시에 제공함으로써 추천 시스템의 미래를 밝게 비추고 있습니다. 추천 시스템의 해석성과 투명성에 대한 고민은 이제 과거의 이야기가 될 수 있을까요? 앞으로의 연구 결과가 기대됩니다. 🚀
Reference
[arxiv] Improving LLM Interpretability and Performance via Guided Embedding Refinement for Sequential Recommendation
Published: (Updated: )
Author: Nanshan Jia, Chenfei Yuan, Yuhang Wu, Zeyu Zheng
http://arxiv.org/abs/2504.11658v1