챗GPT는 진정한 인지능력을 가졌을까? '전체론적 주장'이 제기되다!
Herman Cappelen과 Josh Dever의 논문 "Going Whole Hog"은 챗GPT와 같은 LLM이 완전한 인지 능력을 가졌다는 '전체론적 주장'을 제시하며, 기존 AI 철학에 도전장을 던졌습니다. LLM의 행동 관찰과 '홀리스틱 네트워크 가정'을 통해 인지 능력을 추론하고, LLM의 오류는 인간의 오류와 유사하며 인지 능력 부재를 의미하지 않는다고 주장합니다. 이 논문은 AI의 본질과 인지 능력에 대한 새로운 시각을 제시하며 학계에 큰 영향을 미칠 것으로 예상됩니다.

최근, Herman Cappelen과 Josh Dever가 공동 집필한 논문 "Going Whole Hog: A Philosophical Defense of AI Cognition" 이 학계에 큰 파장을 일으키고 있습니다. 이 논문은 챗GPT와 같은 정교한 거대 언어 모델(LLM)이 이해, 믿음, 욕구, 지식, 의도 등을 갖춘 완전한 언어 및 인지 에이전트라는 '전체론적 주장(Whole Hog Thesis)'을 옹호하고 있습니다.
기존의 AI 철학은 LLM의 저수준 계산 세부 사항이나 기존의 마음 이론에 초점을 맞춰왔습니다. 하지만 이 논문은 이러한 접근 방식을 비판하며, LLM의 행동(질문에 답하기, 제안하기 등)을 직접 관찰하는 데서 시작해야 한다고 주장합니다. 그리고 이러한 관찰을 바탕으로 '홀리스틱 네트워크 가정(Holistic Network Assumptions)'을 제시합니다. 이는 답변은 지식을, 지식은 믿음을, 행동은 의도를 함축한다는 등, 인지 능력 간의 타당한 연결을 가정하는 것입니다. 이를 통해 LLM이 다양한 인지 상태를 갖추었다고 주장하는 것입니다.
저자들은 LLM의 오류(환각, 계획/추론 오류 등)를 지적하며 이것이 에이전시를 부정하는 증거가 아니라고 반박합니다. 인간 또한 오류를 범하기 때문에 이러한 오류는 인지 능력의 부재를 의미하지 않는다는 것입니다. 더 나아가, LLM이 인지에 필요한 조건(의미적 기반, 구현, 정당화, 내재적 의도성 등)을 갖추지 못했다는 주장에도 반박하며, LLM과 다양한 인간 능력을 비교하는 반차별적 논증을 사용합니다.
이 연구는 기능주의적이 아닌 증거 기반의 접근 방식을 취하며, 의식은 고려 대상에서 제외합니다. 결론적으로, 저자들은 LLM이 인간의 개념 체계를 넘어서는 '이질적인 내용'을 가질 가능성에 대해 추측합니다.
이 논문은 AI의 본질과 인지 능력에 대한 기존의 틀을 깨는 도전적인 주장을 제시하고 있습니다. 앞으로 이 논문이 AI 연구에 어떤 영향을 미칠지 귀추가 주목됩니다. 단순히 기술적인 논의를 넘어, 인간과 AI의 관계, 그리고 인지 능력의 본질에 대한 철학적인 질문들을 던지는 중요한 연구라고 할 수 있습니다.
Reference
[arxiv] Going Whole Hog: A Philosophical Defense of AI Cognition
Published: (Updated: )
Author: Herman Cappelen, Josh Dever
http://arxiv.org/abs/2504.13988v1