획기적인 발견! LLMs가 GPU 코드 성능 예측의 새로운 지평을 열다


본 기사는 대규모 언어 모델(LLM)을 활용하여 GPU 코드의 성능을 예측하는 획기적인 연구 결과를 소개합니다. 연구 결과, LLM은 프로파일링 데이터가 있을 경우 100%의 정확도를 달성했으며, 프로파일링 정보 없이도 상당한 정확도를 보였습니다. 하지만 더욱 방대한 데이터셋과 효과적인 프롬프트 엔지니어링 기법 개발이 향후 과제로 남아있습니다.

related iamge

LLMs, GPU 성능 예측의 게임 체인저가 될 수 있을까?

고성능 GPU 코드의 성능을 정확하게 예측하는 것은 쉽지 않습니다. 일반적으로 타겟 하드웨어에서 실행 시간 프로파일링을 통해 이뤄지는데, 고성능 GPU 접근의 어려움으로 인해 점점 더 어려워지고 있습니다. 그런데 최근, 놀라운 연구 결과가 발표되었습니다. 바로 대규모 언어 모델(LLM) 을 활용하여 하드웨어에 의존하지 않고 GPU 성능을 예측할 수 있다는 것입니다! Gregory Bolet 등 연구진의 논문 "Can Large Language Models Predict Parallel Code Performance?"에서 제시된 이 혁신적인 아이디어는, GPU 코드의 성능 예측 문제를 '루프라인 분류 작업'으로 재구성하여 접근합니다. 즉, GPU 커널의 소스 코드와 타겟 GPU의 하드웨어 사양만으로 GPU 커널이 연산 제한적인지, 대역폭 제한적인지 예측하는 것입니다.

실험 설계 및 놀라운 결과

연구진은 CUDA와 OpenMP로 작성된 340개의 GPU 커널을 포함하는 균형 잡힌 데이터셋을 HeCBench 벤치마크에서 얻어, 실험을 진행했습니다. LLM의 성능 평가는 네 가지 시나리오로 진행되었습니다.

  1. 프로파일링 데이터 접근: 커널 소스 코드의 프로파일링 데이터 제공
  2. 제로샷: 소스 코드만 제공
  3. 퓨샷: 코드와 라벨 쌍 제공
  4. 미세 조정: 작은 맞춤형 데이터셋으로 미세 조정

결과는 놀라웠습니다. 최첨단 LLM들은 프로파일링 데이터가 제공된 경우 100%의 분류 정확도를 달성했습니다! 또한 추론 능력이 뛰어난 LLM들은 프로파일링 정보 없이도 최대 64%의 정확도를 달성하며 일반 LLM들을 훨씬 능가했습니다. 다만, LLM 미세 조정에는 현재 사용 가능한 데이터보다 훨씬 많은 데이터가 필요하다는 점을 연구진은 지적했습니다.

미래 전망 및 과제

이 연구는 소스 레벨 루프라인 성능 예측에 LLM을 사용한 최초의 연구 중 하나이며, 런타임 프로파일링이 불가능할 때 최적화 노력을 안내할 수 있는 LLM의 잠재력을 보여줍니다. 더욱 발전된 데이터셋과 프롬프트 전략을 통해 LLM이 HPC 성능 분석 및 성능 이식성을 위한 실용적인 도구가 될 수 있음을 시사합니다. 하지만, 더욱 방대한 데이터셋 구축과 효과적인 프롬프트 엔지니어링 기법 개발이 향후 과제로 남아있습니다. 이 연구는 AI 기반 HPC 성능 분석 분야에 새로운 가능성을 제시하며, 앞으로의 발전이 기대됩니다.


참고: 본 기사는 연구 논문 "Can Large Language Models Predict Parallel Code Performance?"의 내용을 바탕으로 작성되었습니다.


*이 기사는 AI가 생성한 내용으로, 일부 정보가 실제와 다를 수 있습니다. 정확한 확인을 위해 추가적인 검증을 권장드립니다.

Reference

[arxiv] Can Large Language Models Predict Parallel Code Performance?

Published:  (Updated: )

Author: Gregory Bolet, Giorgis Georgakoudis, Harshitha Menon, Konstantinos Parasyris, Niranjan Hasabnis, Hayden Estes, Kirk W. Cameron, Gal Oren

http://arxiv.org/abs/2505.03988v1