이벤트 스트림 기반의 저지연 시각적 객체 추적: Slow-Fast 접근 방식
시아오 왕(Shiao Wang) 등 연구진이 개발한 SFTrack 알고리즘은 이벤트 기반 카메라와 Slow-Fast Tracking 패러다임을 활용하여 저지연, 고효율 시각적 객체 추적을 가능하게 합니다. 그래프 기반 표현 학습과 FlashAttention, 지식 증류 등 첨단 기술을 활용하여 성능을 극대화하였으며, 공개된 소스 코드를 통해 접근성을 높였습니다.

혁신적인 시각적 객체 추적 기술의 등장: SFTrack
기존의 객체 추적 알고리즘은 저해상도 RGB 카메라와 계산 집약적인 심층 신경망에 의존해 왔습니다. 하지만 이러한 프레임 기반 방식은 저지연 성능 달성에 어려움을 겪고, 자원 제약 환경에서는 효과적이지 못했습니다.
이러한 한계를 극복하기 위해, 시아오 왕(Shiao Wang) 등 연구진은 이벤트 기반 카메라를 활용한 획기적인 객체 추적 알고리즘 SFTrack을 개발했습니다. SFTrack은 Slow-Fast Tracking 패러다임을 도입하여 컴퓨팅 자원의 가용성에 따라 유연하게 작동합니다. 즉, 자원이 충분한 환경에서는 정확도가 높은 Slow Tracker를, 자원이 제한적인 환경에서는 속도를 우선하는 Fast Tracker를 사용합니다.
SFTrack의 핵심은 고시간 해상도 이벤트 스트림으로부터 그래프 기반 표현 학습을 수행하고, 학습된 그래프 구조 정보를 FlashAttention 기반 비전 백본 네트워크에 통합하는 것입니다. 이를 통해 Slow Tracker와 Fast Tracker를 모두 구현합니다. 특히 Fast Tracker는 경량화된 네트워크 설계와 단일 전달 과정에서 여러 경계 상자 출력을 생성하여 저지연 성능을 달성합니다.
더 나아가, 연구진은 지도 학습 미세 조정을 통해 두 트래커를 원활하게 결합하고, 지식 증류(Knowledge Distillation) 전략을 통해 Fast Tracker의 성능을 향상시켰습니다. FE240, COESOT, EventVOT 등의 공개 벤치마크에서 수행된 광범위한 실험은 다양한 실제 환경에서 SFTrack의 효과와 효율성을 입증했습니다.
더욱 놀라운 사실은, 소스 코드가 공개되었다는 점입니다! (https://github.com/Event-AHU/SlowFast_Event_Track) 이는 연구 결과의 재현성과 확장성을 높여, 더 많은 연구자들이 이 기술을 발전시키고 활용할 수 있도록 지원합니다.
SFTrack은 저지연 실시간 객체 추적 분야에 혁신적인 발전을 가져올 것으로 기대되며, 자율주행, 로봇 공학, 증강 현실 등 다양한 분야에 폭넓게 응용될 가능성을 제시합니다.
Reference
[arxiv] Towards Low-Latency Event Stream-based Visual Object Tracking: A Slow-Fast Approach
Published: (Updated: )
Author: Shiao Wang, Xiao Wang, Liye Jin, Bo Jiang, Lin Zhu, Lan Chen, Yonghong Tian, Bin Luo
http://arxiv.org/abs/2505.12903v1