놀라운 반전! AI, 선전 감지에는 아직 갈 길이 멀다?
최신 연구에 따르면, GPT-4를 포함한 대규모 언어 모델(LLM)은 선전 감지 능력이 기대만큼 높지 않지만, 특정 유형의 선전에서는 기존 모델보다 우수한 성능을 보입니다. LLM의 선전 감지 기술 발전을 위해서는 더 많은 연구가 필요합니다.

AI는 선전을 얼마나 잘 감지할까요?
최근, Julia Jose와 Rachel Greenstadt가 진행한 연구는 인공지능, 특히 대규모 언어 모델(LLM)이 얼마나 효과적으로 선전을 감지하는지에 대한 흥미로운 결과를 보여줍니다. 선전은 논리적 오류와 감정적인 호소를 이용하여 특정 목표를 달성하려는 의도적인 정보 조작이죠. 이러한 선전을 식별하는 것은 올바른 판단을 내리는 데 매우 중요합니다.
연구팀은 GPT-4, GPT-3.5, Claude 3 Opus와 같은 여러 LLM과 Transformer 기반 모델의 성능을 비교 분석했습니다. 뉴스 기사를 대상으로 6가지 선전 기법을 감지하는 능력을 평가한 결과, 놀랍게도 GPT-4는 F1 스코어 0.16을 기록하며 GPT-3.5와 Claude 3 Opus보다 나은 성능을 보였지만, RoBERTa-CRF 기반 모델(F1=0.67)에는 크게 뒤처졌습니다. 즉, 최첨단 LLM조차도 기존의 다른 방법에 비해 선전 감지 능력이 압도적으로 뛰어나지 않다는 것을 의미합니다.
하지만 희망적인 부분도 있습니다. 세 가지 LLM 모두 '인신 공격'이라는 한 가지 선전 기법에서는 MultiGranularity Network(MGN) 기반 모델보다 뛰어난 성능을 보였습니다. 또한, GPT-3.5와 GPT-4는 '공포심 조장'과 '국가주의 선동' 감지에서도 MGN 기반 모델을 능가했습니다. 이는 특정 유형의 선전에 대해서는 LLM이 유용한 도구가 될 수 있음을 시사합니다.
결론적으로, 이 연구는 LLM이 선전 감지에 있어서 잠재력을 가지고 있지만, 아직 완벽하지 않으며, 더욱 발전된 기술과 접근 방식이 필요하다는 것을 보여줍니다. AI가 선전과의 싸움에서 우리의 강력한 동맹이 되려면 앞으로 더 많은 연구와 개발이 필요합니다. 단순히 높은 성능 지표만을 쫓기보다는, 다양한 선전 기법에 대한 정확하고 효율적인 감지를 위한 혁신적인 방법론에 대한 탐구가 지속되어야 할 것입니다. 🤔
Reference
[arxiv] Are Large Language Models Good at Detecting Propaganda?
Published: (Updated: )
Author: Julia Jose, Rachel Greenstadt
http://arxiv.org/abs/2505.13706v1