AI 거버넌스 연구의 맹점: 현실과의 간극
AI 거버넌스 연구의 현황을 분석한 논문에 따르면, 기업 중심의 사전 배포 연구에 집중되어 있으며, 고위험 분야 및 배포 후 문제에 대한 연구가 부족합니다. 외부 연구자의 데이터 접근 제한 및 AI 행동 관찰의 어려움 등이 문제점으로 지적됩니다.

최근 1,178편의 AI 안전 및 신뢰성 논문 분석 결과 충격적인 사실이 드러났습니다. 2020년 1월부터 2025년 3월까지 발표된 9,439편의 생성형 AI 논문을 분석한 결과, 주요 AI 기업(Anthropic, Google DeepMind, Meta, Microsoft, OpenAI)과 AI 연구 중심 대학(CMU, MIT, NYU, Stanford, UC Berkeley, University of Washington)의 연구 성과에 큰 차이가 있음을 발견했습니다. Ilan Strauss, Isobel Moure, Tim O'Reilly, Sruly Rosenblat 등 연구진이 주도한 이 연구는 AI 거버넌스 연구의 심각한 맹점을 드러냅니다.
핵심 문제는 바로 기업 중심의 ‘사전 배포’ 연구에 대한 집중입니다. 모델 정렬(model alignment)과 테스트 및 평가(testing & evaluation)에 대한 연구는 급증했지만, 실제 배포 단계에서 발생하는 문제, 특히 모델 편향(model bias)에 대한 연구는 오히려 감소했습니다.
더욱 심각한 것은 고위험 분야에 대한 연구의 심각한 부족입니다. 의료, 금융, 허위 정보, 중독성 기능, 환각(hallucination), 저작권 침해 등 실제 사회에 큰 영향을 미칠 수 있는 분야에 대한 연구는 미흡한 실정입니다. 이는 AI 기술의 발전 속도를 고려할 때 매우 심각한 문제입니다. AI가 우리 삶에 깊숙이 파고들면서 발생할 수 있는 부정적 영향을 예측하고 완화하기 위한 노력이 부족하다는 것을 의미하기 때문입니다.
연구진은 이러한 현상의 원인으로 배포된 AI에 대한 관찰 가능성의 부족을 지적합니다. 기업들이 자체 데이터를 독점함으로써 외부 연구자들의 접근이 제한되고, 실제 시장에서 AI가 어떻게 작동하는지에 대한 정보가 부족해지고 있다는 것입니다. 이러한 ‘블랙박스’ 현상은 AI의 위험성을 더욱 증폭시키고, 문제 해결을 어렵게 만듭니다.
결론적으로, AI 거버넌스 연구는 사전 배포 단계를 넘어 실제 배포 환경에서 발생하는 문제에 대한 집중적인 연구가 필요합니다. 외부 연구자들에게 배포 데이터에 대한 접근을 확대하고, 시장에서 AI의 행동에 대한 체계적인 관찰 가능성을 높이는 것이 중요합니다. 이는 AI 기술의 안전하고 윤리적인 발전을 위해 필수적인 조건입니다. 이를 통해 우리는 AI 기술의 혜택을 누리면서 동시에 위험으로부터 안전을 확보할 수 있을 것입니다. 무엇보다도 책임감 있는 AI 개발과 활용이 중요하며, 이를 위해서는 투명성과 공개적인 연구가 절실합니다. 🙏
Reference
[arxiv] Real-World Gaps in AI Governance Research
Published: (Updated: )
Author: Ilan Strauss, Isobel Moure, Tim O'Reilly, Sruly Rosenblat
http://arxiv.org/abs/2505.00174v2