AI 거버넌스 연구의 맹점: 현실과의 간극을 좁히다
본 기사는 AI 거버넌스 연구의 현실적인 격차를 조명합니다. 기업들은 AI 배포 전 단계에 집중하는 반면, 배포 후 문제, 특히 고위험 분야에 대한 연구는 부족합니다. 외부 연구자의 데이터 접근성 확대와 시장 내 AI 행동 관찰 강화가 시급합니다.

최근 5년간(2020년 1월 - 2025년 3월) 발표된 9,439편의 생성형 AI 논문 중 안전성 및 신뢰성에 초점을 맞춘 1,178편의 논문을 분석한 결과 충격적인 사실이 드러났습니다. Ilan Strauss, Isobel Moure, Tim O'Reilly, 그리고 Sruly Rosenblat 등 연구진에 따르면, 주요 AI 기업(Anthropic, Google DeepMind, Meta, Microsoft, OpenAI)과 대학(CMU, MIT, NYU, Stanford, UC Berkeley, 워싱턴 대학교)의 연구 방향에 심각한 차이가 존재한다는 것입니다.
기업 중심의 연구는 모델 정렬 및 테스트/평가와 같은 배포 전 단계에 집중하는 반면, 모델의 편향과 같은 배포 후 문제에 대한 관심은 크게 줄어들었습니다. 이는 마치 자동차의 엔진 성능만 집중적으로 연구하고, 실제 도로 주행 안전성은 간과하는 것과 같습니다.
특히, 의료, 금융, 허위 정보 확산, 중독성 기능, 환각 현상, 저작권 침해 등 고위험 분야에 대한 연구는 심각하게 부족합니다. 이러한 분야에서 AI 기술의 오용으로 발생할 수 있는 위험성은 상상 이상으로 큽니다. AI 기술의 발전 속도에 비해 위험 관리에 대한 연구는 현저히 뒤쳐져 있다는 우려가 제기됩니다.
더욱 심각한 문제는, 배포된 AI에 대한 관찰력 부족입니다. 기업들이 자체 데이터를 독점함으로써, 외부 연구자들의 접근이 제한되고, 시장에서 실제 AI의 행동에 대한 체계적인 관찰이 어려워지고 있습니다. 이는 기업의 집중화가 지식 격차를 심화시킬 수 있다는 것을 의미합니다.
연구진은 이러한 문제를 해결하기 위해 외부 연구자들의 배포 데이터 접근성 확대와 시장 내 AI 행동에 대한 체계적인 관찰 가능성을 높일 것을 권고하고 있습니다. AI 기술의 윤리적이고 안전한 발전을 위해서는 산업계, 학계, 정부의 긴밀한 협력과 투명한 데이터 공유가 필수적입니다. AI의 잠재력을 최대한 활용하면서 위험을 최소화하기 위한 노력이 지금 바로 필요한 시점입니다.
주요 키워드: #AI거버넌스, #AI안전성, #AI신뢰성, #데이터접근성, #고위험AI, #AI윤리
Reference
[arxiv] Real-World Gaps in AI Governance Research
Published: (Updated: )
Author: Ilan Strauss, Isobel Moure, Tim O'Reilly, Sruly Rosenblat
http://arxiv.org/abs/2505.00174v1