멀티모달 LLM의 불확실성 정량화: 새로운 교정 방법 등장!


다중 모달 LLM의 불확실성 정량화(UQ) 개선을 위한 새로운 방법이 제시되었습니다. 기존의 UQ 방법의 한계를 극복하기 위해 교차 모달 일관성과 grounding 기법, 온도 조절 기법을 활용하여 신뢰도 보정의 정확성을 높였습니다. 실험 결과, 의료 질의응답 및 시각적 질의응답 작업에서 향상된 성능을 보였습니다.

related iamge

최근 Trilok Padhi 등 연구진이 발표한 논문에서 다중 모달 대규모 언어 모델(LLM)의 불확실성 정량화(UQ)를 교정하는 획기적인 방법이 소개되었습니다. 기존의 최첨단 UQ 방법들은 다양한 설정 하에서 LLM이 생성한 여러 응답 간의 일관성에 의존합니다. 하지만 이러한 접근 방식은 LLM이 일관되게 잘못된 응답을 내놓는 경우에도 높은 신뢰도를 보고하는 경향이 있습니다. 즉, 정확도에 대한 신뢰도가 잘못 보정되는 문제가 있었던 것입니다. 🤔

연구진은 이 문제를 해결하기 위해 자기 일관성 외에 교차 모달 일관성을 활용했습니다. 핵심은 텍스트 응답을 시각 입력에 근거(grounding) 하는 것입니다. grounding 모델의 신뢰도를 사용하여 전체적인 신뢰도를 보정하는 것이죠. grounding 모델 자체에도 불확실성이 존재하므로, 널리 사용되는 매개변수 보정 기법인 온도 조절(temperature scaling) 을 적용하여 grounding 모델의 신뢰도를 정확도에 맞춰 조정합니다. 🌡️

이 방법은 Slake(의료 질의응답) 및 VQAv2(시각적 질의응답)와 같은 다양한 다중 모달 작업에서 LLaVA-Med 및 LLaVA와 같은 모델을 대상으로 평가되었습니다. 실험 결과, 제안된 프레임워크는 두 작업 모두에서 상당히 향상된 보정 성능을 달성했습니다. 🎉

이 연구는 다중 모달 LLM의 신뢰도를 높이고, 더욱 안전하고 신뢰할 수 있는 AI 시스템 개발에 중요한 발걸음이 될 것으로 기대됩니다. 앞으로 다중 모달 AI 기술의 발전에 어떤 영향을 미칠지 귀추가 주목됩니다. 👏


*이 기사는 AI가 생성한 내용으로, 일부 정보가 실제와 다를 수 있습니다. 정확한 확인을 위해 추가적인 검증을 권장드립니다.

Reference

[arxiv] Calibrating Uncertainty Quantification of Multi-Modal LLMs using Grounding

Published:  (Updated: )

Author: Trilok Padhi, Ramneet Kaur, Adam D. Cobb, Manoj Acharya, Anirban Roy, Colin Samplawski, Brian Matejek, Alexander M. Berenbeim, Nathaniel D. Bastian, Susmit Jha

http://arxiv.org/abs/2505.03788v1