AI 로봇, 장애 대학생의 든든한 조력자가 될 수 있을까? 劍橋대 연구 결과 발표
캠브리지 대학교 연구팀은 AI 기반 사회적 로봇이 장애 대학생의 중재 및 옹호를 지원할 수 있는 잠재력을 탐색했습니다. 긍정적 가능성과 더불어 윤리적 고려, 특히 편향성과 접근성 문제를 강조하며, 기술이 자기 옹호 역량 강화에 기여해야 함을 주장합니다.

최근 캠브리지 대학교 연구팀(Alva Markelius, Julie Bailey, Jenny L. Gibson, Hatice Gunes)의 흥미로운 연구 결과가 발표되었습니다. 연구 제목은 "Stakeholder Perspectives on Whether and How Social Robots Can Support Mediation and Advocacy for Higher Education Students with Disabilities"로, AI, 특히 사회적 로봇과 대규모 언어 모델(LLM)이 장애 대학생들의 중재 및 옹호를 지원할 수 있는지에 대한 탐구를 담고 있습니다.
장애 대학생, 사회적 로봇과의 만남: 기대와 현실 사이
이 연구는 캠브리지 대학교의 장애 학생, 학생 대표, 장애 전문가 등 다양한 이해관계자들과의 인터뷰와 포커스 그룹을 통해 진행되었습니다. 연구 결과, 사회적 로봇이 정보 안내(signposting)나 학습 파트너 역할(study companion)을 하는 등 긍정적인 측면이 확인되었습니다. 마치 든든한 조력자처럼 말이죠. 하지만, 공감 능력, 신뢰, 형평성, 접근성과 관련된 한계도 동시에 드러났습니다. 기술의 긍정적 측면만 바라볼 수 없다는 점을 시사하는 대목입니다.
윤리적 과제: 편향성과 구조적 불평등
연구팀은 윤리적 고려 사항을 중요하게 언급합니다. 특히, 교차적 편향(intersectional biases), 이중 공감 문제(double empathy problem), 그리고 구조적 불평등 속에서 사회적 로봇을 배치하는 것의 함의 등을 심도 있게 논의합니다. 단순히 기술적 해결책만으로는 접근할 수 없는 복잡한 사회적 문제들이 존재함을 암시합니다. 이는 AI 기술 개발에 있어서 윤리적 고려가 얼마나 중요한지를 보여주는 대표적인 사례입니다.
자기 옹호 역량 강화: 기술의 새로운 가능성
연구팀은 단순한 문제 해결 도구를 넘어, 장애 학생들의 자기 옹호 역량을 강화하는 데 도움이 되는 기술 개발의 필요성을 강조합니다. 기술이 단순히 문제를 해결하는 도구가 아닌, 개인의 능력을 증진시키는 도구로 활용될 수 있다는 점을 시사합니다. 이는 기술 개발의 패러다임 전환을 요구하는 중요한 메시지입니다. 결국, 이 연구는 기술의 발전과 더불어 윤리적 고려와 사회적 책임에 대한 깊은 성찰을 촉구하고 있습니다.
미래를 위한 제언: 균형 잡힌 접근 필요
연구는 미래 연구를 위한 권고 사항과 제안을 제시하며 마무리됩니다. 단순히 기술적 해결책을 제시하는 것에서 벗어나, 사회적, 윤리적 측면을 고려한 균형 잡힌 접근이 필요함을 강조합니다. AI 기술이 장애 대학생들에게 진정한 도움을 주기 위해서는 기술적 완성도뿐 아니라, 사회적, 윤리적 책임에 대한 끊임없는 고민이 필요하다는 메시지를 전달합니다.
Reference
[arxiv] Stakeholder Perspectives on Whether and How Social Robots Can Support Mediation and Advocacy for Higher Education Students with Disabilities
Published: (Updated: )
Author: Alva Markelius, Julie Bailey, Jenny L. Gibson, Hatice Gunes
http://arxiv.org/abs/2503.16499v1