PIM-LLM: 1비트 LLM을 위한 초고속 하이브리드 PIM 아키텍처


Jinendra Malekar 등 연구진이 개발한 PIM-LLM은 메모리 내 처리(PIM) 기술을 활용하여 1비트 LLM의 성능을 획기적으로 향상시킨 하이브리드 아키텍처입니다. 기존 하드웨어 가속기 대비 토큰 처리 속도를 최대 80배 높이고 에너지 효율을 70% 개선하여 AI 분야의 새로운 기준을 제시했습니다.

related iamge

혁신적인 AI 가속화 기술 등장: PIM-LLM

최근 AI 분야의 뜨거운 감자인 대규모 언어 모델(LLM)의 성능 향상과 에너지 효율 문제를 해결할 획기적인 기술이 등장했습니다. Jinendra Malekar 등 연구진이 발표한 논문 "PIM-LLM: A High-Throughput Hybrid PIM Architecture for 1-bit LLMs"에서는 메모리 내 처리(PIM) 아키텍처를 활용한 새로운 하이브리드 아키텍처, PIM-LLM을 제안합니다.

PIM-LLM: 아날로그와 디지털의 만남

PIM-LLM은 1비트 LLM의 연산 속도를 극적으로 높이기 위해 아날로그 PIM 아키텍처와 디지털 시스토릭 어레이를 결합한 하이브리드 방식을 채택했습니다. 이는 1비트 LLM의 특징인 프로젝션 레이어와 어텐션 헤드의 연산 특성에 맞춰 각각 최적화된 연산 방식을 적용한 것입니다. 즉, 프로젝션 레이어의 저정밀 행렬 곱셈(MatMul) 연산에는 아날로그 PIM을, 어텐션 헤드의 고정밀 MatMul 연산에는 디지털 시스토릭 어레이를 사용하여 효율성을 극대화했습니다.

놀라운 성능 향상: 기존 기술의 한계 극복

연구 결과는 놀랍습니다. PIM-LLM은 기존 하드웨어 가속기 대비 토큰 처리 속도가 최대 80배 향상되었으며, 토큰 당 에너지 소모량은 70% 감소했습니다. 뿐만 아니라, 기존 PIM 기반 LLM 가속기와 비교해도 GOPS(초당 기가 연산) 는 최소 2배, GOPS/W(와트당 초당 기가 연산) 는 최소 5배 이상의 성능 향상을 보이며 새로운 기준을 제시했습니다.

미래를 위한 기술: 지속적인 발전 가능성

이 연구는 단순히 성능 향상을 넘어, AI 모델의 에너지 효율 문제 해결에 대한 중요한 해결책을 제시합니다. PIM-LLM의 성공은 PIM 기술의 LLM 가속화 분야에서의 잠재력을 보여주는 동시에, 향후 더욱 발전된 AI 하드웨어 설계의 가능성을 열어줄 것으로 기대됩니다. 앞으로 PIM-LLM을 기반으로 더욱 향상된 성능과 에너지 효율을 갖춘 AI 시스템 개발이 가속화될 것으로 예상됩니다. 이 기술은 단순한 성능 개선을 넘어, 지속 가능한 AI 시대를 여는 중요한 발걸음이 될 것입니다.


*이 기사는 AI가 생성한 내용으로, 일부 정보가 실제와 다를 수 있습니다. 정확한 확인을 위해 추가적인 검증을 권장드립니다.

Reference

[arxiv] PIM-LLM: A High-Throughput Hybrid PIM Architecture for 1-bit LLMs

Published:  (Updated: )

Author: Jinendra Malekar, Peyton Chandarana, Md Hasibul Amin, Mohammed E. Elbtity, Ramtin Zand

http://arxiv.org/abs/2504.01994v1