인간처럼 생각하는 AI: 대규모 언어 모델의 '빠른-느린 사고' 전략


Sun Yiliu 등 연구진이 제안한 '빠른-느린 사고(FST)'는 인간의 사고 방식을 모방하여 대규모 언어 모델(LLM)의 복잡한 과제 해결 능력을 향상시키는 새로운 방법입니다. '빠른 사고(FT)' 단계에서 과제를 단순화하고, '느린 사고(ST)' 단계에서 세부 사항을 검토하여 더욱 정확하고 완성도 높은 결과를 얻을 수 있습니다. 다양한 과제에 대한 실험 결과, FST의 효과가 입증되었습니다.

related iamge

인간처럼 생각하는 AI: 대규모 언어 모델의 '빠른-느린 사고' 전략

최근 대규모 언어 모델(LLM)이 복잡한 문제 해결에 활용되고 있지만, 과도하게 복잡한 논리와 제약 조건이 포함된 과제에서는 성능이 저하되는 한계를 보였습니다. 기존의 과제 분해 방법들은 복잡한 과제를 단순한 하위 과제로 나누어 해결하는 방식이었지만, LLM이 생성한 솔루션이 원래 과제의 목적에서 벗어나거나 불필요하거나 잘못된 내용을 포함할 수 있었습니다.

이러한 문제를 해결하기 위해, Sun Yiliu 등 연구진은 인간의 '빠른 사고'와 '느린 사고' 시스템에서 영감을 얻어 새로운 과제 분해 방법인 **'빠른-느린 사고(Fast-Slow-Thinking, FST)'**를 제안했습니다. FST는 LLM이 '빠른 사고(FT)'와 '느린 사고(ST)' 단계의 협업을 통해 과제를 해결하도록 합니다.

빠른 사고(FT) 단계: 간결하고 일반적인 접근

FT 단계에서는 LLM에게 원래 과제의 제약 조건을 제거하도록 유도하여, 과제를 간결하고 일반적인 형태로 단순화합니다. 마치 인간이 문제의 핵심을 빠르게 파악하는 것과 같은 과정입니다. 복잡한 문제를 단순화함으로써 LLM이 문제의 본질에 집중할 수 있도록 돕습니다.

느린 사고(ST) 단계: 세부 사항 검토 및 개선

ST 단계에서는 FT 단계에서 제거했던 제약 조건을 다시 고려하여, FT 단계에서 생성된 답변을 개선합니다. 원래 과제의 요구 사항을 충족하도록 세부적인 내용을 검토하고 보완하는 단계입니다. 인간의 '느린 사고'처럼, 꼼꼼하게 세부 사항을 검토하여 정확하고 완성도 높은 결과를 도출하는 데 초점을 맞춥니다.

FST는 LLM이 인간과 유사한 인지 과정을 통해 복잡한 문제를 해결하도록 돕는 새로운 접근법입니다. 세 가지 유형의 과제에 대한 실험을 통해 그 효과가 입증되었으며, 향후 LLM의 응용 분야 확장에 크게 기여할 것으로 기대됩니다. 이는 단순히 과제를 분해하는 것을 넘어, 인간의 사고 과정을 모방하여 LLM의 지능 수준을 한 단계 끌어올리는 혁신적인 시도라고 할 수 있습니다. 🧠🤖


*이 기사는 AI가 생성한 내용으로, 일부 정보가 실제와 다를 수 있습니다. 정확한 확인을 위해 추가적인 검증을 권장드립니다.

Reference

[arxiv] Fast-Slow-Thinking: Complex Task Solving with Large Language Models

Published:  (Updated: )

Author: Yiliu Sun, Yanfang Zhang, Zicheng Zhao, Sheng Wan, Dacheng Tao, Chen Gong

http://arxiv.org/abs/2504.08690v1