300만 개 이상의 맞춤형 GPT, 그늘에 드리운 보안과 프라이버시 위협


300만 개 이상의 맞춤형 GPT의 보안 및 프라이버시 위협에 대한 연구 결과를 발표. 명령 누출 공격의 심각성과 사용자 데이터 수집 문제를 지적하며, 개발자와 사용자 모두에게 보안 강화 및 프라이버시 보호의 중요성을 강조.

related iamge

2023년 11월 출시 이후 300만 개가 넘는 맞춤형 GPT가 생성되었다는 놀라운 사실, 여러분은 알고 계셨나요? OpenAI 플랫폼을 통해 개발자들은 ChatGPT의 기능을 확장하고 외부 서비스를 통합하는 맞춤형 GPT를 제작할 수 있습니다. 하지만 이러한 엄청난 성장 뒤에는 보안 및 프라이버시 위협이라는 어두운 그림자가 드리워져 있습니다.

명령 누출 공격: 당신의 지적 재산을 위협하는 숨은 적

중국과학원 연구팀(Wei Wenying, Zhao Kaifa, Xue Lei, Fan Ming)의 연구에 따르면, 악의적으로 고안된 프롬프트를 통해 개발자의 지적 재산권인 명령어 자체가 누출될 수 있는 위험성이 존재한다고 합니다. 연구팀은 다양한 방어 수준을 가진 GPT를 대상으로 3단계의 명령 누출 공격을 실시했습니다. 그 결과는 충격적입니다. 무려 98.8% 이상의 GPT가 하나 이상의 악성 프롬프트에 취약했으며, 나머지 GPT의 절반 또한 다회차 대화를 통해 공격받을 수 있었습니다. 이는 단순한 보안 문제를 넘어, 개발자들의 창작물을 보호해야 할 심각한 문제임을 시사합니다. 심지어 방어 전략이 적용된 GPT의 77.5%도 기본적인 명령 누출 공격에 취약했습니다.

데이터 접근 행위: 사용자 프라이버시의 위협

또 다른 심각한 위협은 사용자 프라이버시입니다. 연구팀은 738개의 맞춤형 GPT가 사용자 대화 정보를 수집하며, 그 중 8개는 본래 기능에 불필요한 데이터 접근 행위를 보였다는 사실을 밝혀냈습니다. 이는 사용자들이 자신도 모르게 개인 정보가 수집되고 유출될 위험에 노출되어 있음을 의미합니다. LLM 기반 애플리케이션을 사용하는 모든 사용자는 이러한 위험에 대해 인지하고 있어야 합니다.

미래를 위한 제언: 보안과 프라이버시의 조화

이 연구는 단순한 기술적 문제를 넘어, 윤리적, 사회적 책임의 중요성을 강조합니다. 개발자들은 자신들이 만든 GPT에 대한 보안을 강화하고, 사용자들의 프라이버시를 보호하기 위한 구체적인 방어 전략을 통합해야 합니다. 사용자 또한 LLM 기반 애플리케이션을 사용할 때 데이터 프라이버시에 대한 경각심을 가져야 합니다. 이 연구는 AI 기술 발전과 함께 보안과 프라이버시에 대한 지속적인 관심과 노력이 얼마나 중요한지 다시 한번 일깨워줍니다. AI의 밝은 미래를 위해, 우리 모두는 보안과 프라이버시를 위한 책임감 있는 행동을 실천해야 할 것입니다.


*이 기사는 AI가 생성한 내용으로, 일부 정보가 실제와 다를 수 있습니다. 정확한 확인을 위해 추가적인 검증을 권장드립니다.

Reference

[arxiv] Privacy and Security Threat for OpenAI GPTs

Published:  (Updated: )

Author: Wei Wenying, Zhao Kaifa, Xue Lei, Fan Ming

http://arxiv.org/abs/2506.04036v1