젠더 편향, AI의 그림자: 젠더 수행성 이론으로 본 언어 모델의 성차별
본 연구는 젠더 수행성 이론을 활용하여 AI 언어 모델의 성별 편향 문제를 분석하고, 단순한 통계적 연관성을 넘어 젠더의 사회적 구성에 대한 심층적 이해의 중요성을 강조합니다. 대규모 언어 모델의 성능 향상이 오히려 성별 편향을 심화시킬 수 있다는 점을 발견하고, 성별 편향 문제 해결을 위한 새로운 접근 방식의 필요성을 제기합니다.

최근, Franziska Sofia Hafner, Ana Valdivia, Luc Rocher 등의 연구진이 발표한 논문 "Gender Trouble in Language Models: An Empirical Audit Guided by Gender Performativity Theory"는 인공지능(AI) 언어 모델 내 성별 편향 문제를 심층적으로 분석해 충격적인 결과를 제시했습니다. 단순히 직업과 같은 비성별 용어와 '여성', '남성'과 같은 성별 용어의 연관성을 넘어, 젠더 자체의 사회적 구성에 초점을 맞춘 것이 이 연구의 특징입니다.
연구진은 젠더 수행성 이론을 바탕으로, 16개의 다양한 언어 모델을 분석했습니다. 그 결과, 대부분의 모델이 성별을 생물학적 성과 이분법적으로 연결하는 경향을 보였습니다. 더욱 심각한 것은, 이러한 경향이 모델의 크기가 클수록 더욱 강화된다는 사실입니다. 성능이 뛰어난 대규모 모델일수록 성별과 생물학적 성의 연관성을 더욱 강하게 학습하는 아이러니한 결과가 드러난 것입니다. 이는 성전환자나 성다양성을 가진 사람들의 정체성을 지우거나 병리화하는 결과로 이어질 수 있습니다. 예를 들어, 의료 진단에서 잘못된 신체 구조에 대한 가정으로 인해 환자를 오진할 위험도 증가합니다.
이 연구는 단순히 성차별적인 단어의 연관성을 제거하는 수준을 넘어, 젠더 자체에 대한 사회적 구성과 인식의 문제를 파헤칩니다. 연구진은 AI 언어 모델에서의 '성별 편향'에 대한 정의와 해결 방식을 근본적으로 재검토해야 한다고 주장합니다. 단순히 표면적인 수정이 아닌, 젠더의 다양성과 복잡성을 제대로 이해하고 반영하는 새로운 접근 방식이 필요하다는 것을 강조하고 있습니다. 이 연구는 AI 기술의 윤리적 함의에 대한 심각한 질문을 던지며, 기술 개발 과정에서 성평등과 다양성을 고려해야 할 필요성을 절실히 보여줍니다. 향후 AI 연구는 단순한 성능 향상을 넘어, 사회적 정의와 윤리적 책임을 우선시하는 방향으로 나아가야 할 것입니다.
핵심: 대규모 언어 모델이 성별을 이분법적으로, 생물학적 성과 연결하는 경향이 있으며, 이는 성소수자의 권리와 정체성을 위협합니다. 따라서, 성별 편향 문제 해결을 위한 근본적인 접근 방식의 변화가 필요합니다.
Reference
[arxiv] Gender Trouble in Language Models: An Empirical Audit Guided by Gender Performativity Theory
Published: (Updated: )
Author: Franziska Sofia Hafner, Ana Valdivia, Luc Rocher
http://arxiv.org/abs/2505.14080v1