related iamge

두 개의 마음이 하나보다 낫다: LLM 정렬을 위한 협력적 보상 모델링

중국과학기술대학교 연구진이 제안한 협력적 보상 모델링(CRM)은 LLM의 인간 가치 정렬 문제를 해결하기 위한 혁신적인 프레임워크입니다. 두 개의 보상 모델을 활용한 동료 검토와 커리큘럼 학습을 통해 노이즈에 강건하고 일반화 성능이 뛰어난 보상 모델 학습을 가능하게 합니다. 실험 결과, 극심한 노이즈 환경에서도 기존 방식 대비 최대 9.94점의 성능 향상을 보였으며, 암묵적 보상 정렬 방법에도 적용 가능합니다.

related iamge

Pre-Act: LLM 에이전트의 행동 향상을 위한 다단계 계획 및 추론

본 기사는 Pre-Act, 즉 LLM 에이전트의 행동을 향상시키는 다단계 계획 및 추론 접근 방식에 대한 최신 연구 결과를 소개합니다. Pre-Act는 기존 ReAct 방식을 개선하여 액션 재현율과 목표 달성률을 크게 높였으며, 특히 소규모 모델에서도 우수한 성능을 보여 실용적인 응용 분야에 큰 기여를 할 것으로 기대됩니다.

related iamge

AdaptCLIP: 범용 시각적 이상 감지의 새로운 지평을 열다

AdaptCLIP은 CLIP 모델을 기반으로 한 범용 시각적 이상 감지 모델로, 적응형 시각 및 텍스트 표현 학습과 맥락 정보 및 정렬된 잔차 특징을 활용하여 12개 이상 감지 벤치마크에서 최첨단 성능을 달성했습니다. GitHub를 통해 공개된 코드와 모델은 향후 AI 기술 발전에 크게 기여할 것으로 예상됩니다.

related iamge

거대 언어 모델의 비밀: 중첩(Superposition)이 만든 놀라운 스케일링 법칙

Liu, Liu, Gore 연구팀의 논문 “Superposition Yields Robust Neural Scaling”은 거대 언어 모델(LLM)의 성능 향상에 대한 새로운 통찰력을 제공합니다. LLM의 스케일링 법칙은 표현의 중첩 현상에 기인하며, 이는 더 효율적인 AI 시스템 개발의 가능성을 제시합니다.

related iamge

기업용 LLM의 정보보안 혁신: AC-LoRA의 등장

AC-LoRA는 기업용 LLM의 정보 유출 위험을 최소화하면서 효율적인 지식 관리를 가능하게 하는 혁신적인 시스템입니다. 다양한 모달리티에 적용 가능하며, 기존 기술보다 우수한 성능과 강력한 정보 격리 기능을 제공합니다.