딥러닝 기반 유전체 모델의 치명적 약점: SafeGenes 연구 결과 발표
Huixin Zhan과 Jason H. Moore의 연구는 딥러닝 기반 유전체 모델(GFMs)의 적대적 공격에 대한 취약성을 밝히고, SafeGenes 프레임워크를 통해 이러한 취약성을 평가하는 방법을 제시합니다. 연구 결과는 대규모 모델조차도 표적화된 공격에 취약하며, GFMs의 안전성 향상을 위한 추가 연구의 필요성을 강조합니다.

최근 Huixin Zhan과 Jason H. Moore 연구진이 발표한 논문 “SafeGenes: Evaluating the Adversarial Robustness of Genomic Foundation Models”은 딥러닝 기반 유전체 모델(Genomic Foundation Models, GFMs)의 안전성에 대한 심각한 우려를 제기합니다. 기존의 유전체 변이 효과 예측에서 뛰어난 성능을 보였던 ESM(Evolutionary Scale Modeling)과 같은 GFMs가 사실은 적대적 공격에 매우 취약하다는 사실이 밝혀진 것입니다.
연구진은 GFMs의 안전성을 평가하기 위한 새로운 프레임워크인 SafeGenes를 제시했습니다. SafeGenes는 Fast Gradient Sign Method (FGSM) 과 소프트 프롬프트 공격이라는 두 가지 접근 방식을 결합하여 GFMs의 적대적 조작에 대한 취약성을 포괄적으로 평가합니다. FGSM은 입력 시퀀스에 최소한의 변화를 주는 방식으로 공격을 시도하고, 소프트 프롬프트 공격은 입력 토큰을 변경하지 않고 연속적인 임베딩을 최적화하여 모델 예측을 조작하는 방식을 사용합니다.
놀랍게도, 연구 결과는 ESM1b와 ESM1v와 같은 대규모 모델조차도 표적화된 소프트 프롬프트 공격에 심각한 성능 저하를 보였다는 점을 강조합니다. 이는 현재의 GFMs가 유전체 변이 예측과 같은 중요한 응용 분야에서 안전하지 않을 수 있음을 시사합니다. 이는 단순한 오류를 넘어, 악의적인 공격자가 유전체 정보를 조작하여 잘못된 예측 결과를 만들어낼 수 있다는 심각한 보안 위협을 내포합니다.
이 연구는 GFMs의 보안 및 강건성 향상을 위한 새로운 연구 방향을 제시하며, 향후 유전체 분석 및 의료 분야에서의 AI 활용에 대한 신중한 접근이 필요함을 보여줍니다. 단순히 성능만을 고려하는 것이 아니라, 보안 및 안전성에 대한 철저한 검토가 필수적이며, SafeGenes와 같은 안전성 평가 프레임워크의 개발 및 활용이 중요해졌습니다. 이 연구는 AI 기술의 발전과 함께 윤리적 및 안전성 문제에 대한 지속적인 관심과 연구가 필요함을 다시 한번 일깨워줍니다.
향후 연구 과제: GFMs의 적대적 공격에 대한 방어 기술 개발, 더욱 강력하고 다양한 적대적 공격 기법에 대한 연구, 실제 의료 데이터를 이용한 안전성 평가 등이 필요합니다.
Reference
[arxiv] SafeGenes: Evaluating the Adversarial Robustness of Genomic Foundation Models
Published: (Updated: )
Author: Huixin Zhan, Jason H. Moore
http://arxiv.org/abs/2506.00821v1